JP2013211714A - Display device, control method, and program - Google Patents

Display device, control method, and program Download PDF

Info

Publication number
JP2013211714A
JP2013211714A JP2012081014A JP2012081014A JP2013211714A JP 2013211714 A JP2013211714 A JP 2013211714A JP 2012081014 A JP2012081014 A JP 2012081014A JP 2012081014 A JP2012081014 A JP 2012081014A JP 2013211714 A JP2013211714 A JP 2013211714A
Authority
JP
Japan
Prior art keywords
face
angle
viewer
monitor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012081014A
Other languages
Japanese (ja)
Inventor
Kazuma Makita
和馬 牧田
Shigeru Hidesawa
茂 秀澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012081014A priority Critical patent/JP2013211714A/en
Publication of JP2013211714A publication Critical patent/JP2013211714A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce a load on a viewer by controlling a rotating table so that a monitor screen is directed to a human confrontation position on the basis of eye positions.SOLUTION: A control device 10 comprises: a detection unit 11c that detects an inclination angle of a viewer's face from a detection area of the viewer's face included in an image captured by an imaging device 20; a determination unit 12 that determines a rotation angle of a monitor 40 for displaying an image so that the angle detected by the detection unit 11c comes close to 0°; and an instruction unit 13 that generates a pulse for rotating a motor in accordance with the rotation angle received from the determination unit 12.

Description

本発明は表示装置、制御方法およびプログラムに関する。   The present invention relates to a display device, a control method, and a program.

テレビ等のモニタ画面を見る際に、視聴者の負担を軽減する方法が知られている。例えば、画像認識処理により検出された眼球位置に基づいて、モニタ画面が人間の正対位置を向くように回転台の角度を制御する信号を出力し、これらの信号を受けた制御装置が回転台を制御する技術が知られている。   A method of reducing the burden on the viewer when viewing a monitor screen of a television or the like is known. For example, based on the eyeball position detected by the image recognition processing, a signal for controlling the angle of the turntable is output so that the monitor screen faces the human facing position. A technique for controlling the above is known.

特開2009−94723号公報JP 2009-94723 A

例えば、眼球位置に基づいて、モニタ画面が人間の正対位置を向くように回転台を制御する場合を考える。長時間同じ姿勢を維持することは難しい。また、寝ころんだ姿勢で視聴を希望する場合等がある。   For example, consider a case where the turntable is controlled based on the eyeball position so that the monitor screen faces the human facing position. It is difficult to maintain the same posture for a long time. In addition, there are cases where viewing is desired in a lying position.

1つの側面では、本発明は、視聴者の負担を軽減することを目的とする。   In one aspect, the present invention aims to reduce the burden on the viewer.

上記目的を達成するために、開示の制御装置が提供される。この制御装置は、検出部と、決定部とを有している。検出部は、撮像装置により撮像された画像に含まれる視聴者の顔の検出領域から視聴者の顔の傾き角度を検出する。決定部は、検出部により検出された角度が0°に近づくように画像を表示するモニタの回転角度を決定する。   In order to achieve the above object, a disclosed control device is provided. This control apparatus has a detection part and a determination part. The detection unit detects the tilt angle of the viewer's face from the viewer's face detection area included in the image captured by the imaging device. The determination unit determines the rotation angle of the monitor that displays the image so that the angle detected by the detection unit approaches 0 °.

1態様では、視聴者の負担を軽減することができる。   In one aspect, the burden on the viewer can be reduced.

第1の実施の形態の表示装置の機能を示すブロック図である。It is a block diagram which shows the function of the display apparatus of 1st Embodiment. 表示装置の外形を示す図である。It is a figure which shows the external shape of a display apparatus. 表示装置の動作を説明する図である。It is a figure explaining operation | movement of a display apparatus. 制御装置の処理を示すフローチャートである。It is a flowchart which shows the process of a control apparatus. 傾き検出処理を示すフローチャートである。It is a flowchart which shows an inclination detection process. 制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a control apparatus. 第2の実施の形態の表示装置の機能を示すブロック図である。It is a block diagram which shows the function of the display apparatus of 2nd Embodiment. 眼鏡を説明する図である。It is a figure explaining spectacles. 第2の実施の形態の傾き検出処理を示すフローチャートである。It is a flowchart which shows the inclination detection process of 2nd Embodiment.

以下、実施の形態の表示装置を、図面を参照して詳細に説明する。
<第1の実施の形態>
図1は、第1の実施の形態の表示装置の機能を示すブロック図であり、図2は、表示装置の外形を示す図である。図2では互いに垂直なX、Y、Z軸方向を規定する。X―Y平面は、地面に平行な平面である。
Hereinafter, a display device according to an embodiment will be described in detail with reference to the drawings.
<First Embodiment>
FIG. 1 is a block diagram illustrating functions of the display device according to the first embodiment, and FIG. 2 is a diagram illustrating an outer shape of the display device. In FIG. 2, the X, Y, and Z axis directions perpendicular to each other are defined. The XY plane is a plane parallel to the ground.

図1に示すように、第1の実施の形態の表示装置1は、制御装置(コンピュータ)10と、撮像装置20と、モータ31、32、33とモニタ40とを有している。モニタ40は、図示しないCPU(Central Processing Unit)からの命令に従って、画像をモニタ40の画面に表示させる図示しないグラフィック処理装置に接続されている。モニタ40としては、CRT(Cathode Ray Tube)を用いた装置や、液晶表示装置等が挙げられる。図2に示すように、モニタ40は、支持部52、53を介して基台51上に設置されている。支持部52内には、Z軸に平行な回転軸54が埋め込まれている。支持部53の先端部分には、X軸に平行な回転軸55が埋め込まれている。また、支持部53には、Y軸に平行な回転軸56が埋め込まれている。   As illustrated in FIG. 1, the display device 1 according to the first embodiment includes a control device (computer) 10, an imaging device 20, motors 31, 32, 33, and a monitor 40. The monitor 40 is connected to a graphic processing device (not shown) that displays an image on the screen of the monitor 40 in accordance with a command from a CPU (Central Processing Unit) (not shown). Examples of the monitor 40 include a device using a CRT (Cathode Ray Tube), a liquid crystal display device, and the like. As shown in FIG. 2, the monitor 40 is installed on a base 51 via support parts 52 and 53. A rotation shaft 54 parallel to the Z axis is embedded in the support portion 52. A rotation shaft 55 parallel to the X axis is embedded in the distal end portion of the support portion 53. In addition, a rotation shaft 56 parallel to the Y axis is embedded in the support portion 53.

再び図1に戻って説明する。
撮像装置20は、モニタ40の表示面側に撮像素子が位置するようにモニタ40に取り付けられている。撮像素子としては、CCD(Charge Coupled Device)イメージセンサや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等が挙げられる。撮像装置20は、定期的に画像を撮像し、撮像した画像を制御装置10に送る。
Returning again to FIG.
The imaging device 20 is attached to the monitor 40 so that the imaging element is positioned on the display surface side of the monitor 40. Examples of the image sensor include a charge coupled device (CCD) image sensor and a complementary metal oxide semiconductor (CMOS) image sensor. The imaging device 20 periodically captures images and sends the captured images to the control device 10.

制御装置10は、傾き検出部11と、決定部12と、指示部13とを有している。
傾き検出部11は、前処理部11aと、識別部11bと、検出部11cとを有している。
The control device 10 includes an inclination detection unit 11, a determination unit 12, and an instruction unit 13.
The inclination detection unit 11 includes a preprocessing unit 11a, an identification unit 11b, and a detection unit 11c.

前処理部11aは、撮像装置20が撮像した画像のノイズ成分を除去する。ノイズ成分の除去には、例えばメディアンフィルタ等を用いることができる。
識別部11bは、前処理部11aが処理した画像に微分処理を施して制御装置10内に予め用意されている顔の特徴パーツとをパターンマッチングして顔の領域を示す矩形の領域を抽出する。顔の領域を抽出する方法は、例えばViola−Jones法を用いることができる。
The preprocessing unit 11a removes a noise component of an image captured by the imaging device 20. For example, a median filter can be used to remove the noise component.
The identification unit 11b performs a differentiation process on the image processed by the preprocessing unit 11a, and extracts a rectangular region indicating a facial region by pattern matching with facial feature parts prepared in advance in the control device 10. . For example, the Viola-Jones method can be used as a method for extracting the face region.

検出部11cは、識別部11bが抽出した顔領域の地面に対する傾き角度を検出する。
以下の説明では、撮像装置20が撮像した画像の座標系を、図2のXYZ座標系とは異なるxy座標系で表現し、画像の左下を原点(0,0)に設定する。決定部12は、撮像装置20が撮像した画像の中心座標(x1、y1)と、顔の位置座標(x2、y2)とを比較する。顔の位置座標は、例えば識別部11bが識別したエッジの中心点の座標に設定する。決定部12は、(x1−x2)の絶対値が予め用意されている閾値以上である場合、その差分値を指示部13に送る。また、決定部12は、(y1−y2)の絶対値が予め用意されている閾値以上である場合、その差分値を指示部13に送る。
The detection unit 11c detects an inclination angle of the face area extracted by the identification unit 11b with respect to the ground.
In the following description, the coordinate system of the image captured by the imaging device 20 is expressed by an xy coordinate system different from the XYZ coordinate system in FIG. 2, and the lower left of the image is set to the origin (0, 0). The determination unit 12 compares the center coordinates (x1, y1) of the image captured by the imaging device 20 with the face position coordinates (x2, y2). For example, the face position coordinates are set to the coordinates of the center point of the edge identified by the identification unit 11b. When the absolute value of (x1−x2) is greater than or equal to a threshold value prepared in advance, the determination unit 12 sends the difference value to the instruction unit 13. In addition, when the absolute value of (y1−y2) is equal to or greater than a predetermined threshold value, the determination unit 12 sends the difference value to the instruction unit 13.

また、決定部12は、傾き検出部11が複数回処理を実行することにより得られる顔の傾き角度の最頻出値を抽出する。決定部12は、顔の傾き角度の最頻出値が予め用意されている閾値(以下、第1の閾値という)より大きい場合、顔の傾き角度を指示部13に送る。他方、決定部12は、顔の傾き角度の最頻出値が第1の閾値以下である場合、指示部13に顔の傾き角度を送らず処理を終了する。   Further, the determination unit 12 extracts the most frequent value of the face inclination angle obtained by the inclination detection unit 11 executing the process a plurality of times. The determination unit 12 sends the face inclination angle to the instruction unit 13 when the most frequent value of the face inclination angle is larger than a threshold value prepared in advance (hereinafter referred to as a first threshold value). On the other hand, when the most frequent value of the face tilt angle is equal to or smaller than the first threshold value, the determination unit 12 ends the process without sending the face tilt angle to the instruction unit 13.

指示部13は、決定部12から受け取った顔の傾き角度および差分値に基づきパルスを生成する。そして、モータ31、32、33に送る。なお、指示部13がモータにパルスを送る間隔は、例えば1秒毎である。   The instruction unit 13 generates a pulse based on the face inclination angle and the difference value received from the determination unit 12. Then, it is sent to the motors 31, 32, 33. The interval at which the instruction unit 13 sends pulses to the motor is, for example, every second.

モータ31、32、33は、それぞれステッピングモータであり、モータ31、32、33は、制御装置10から受け取ったパルスに基づき回転する。モータ31、32、33は、それぞれモニタ40を互いに垂直なX、Y、Z軸方向に回転させるための回転軸54、55、56に取り付けられている。モニタ40を回転させる回転軸は、モータ31、32、33の回転に伴い、回動する。   The motors 31, 32, and 33 are stepping motors, and the motors 31, 32, and 33 rotate based on pulses received from the control device 10. The motors 31, 32, and 33 are attached to rotation shafts 54, 55, and 56 for rotating the monitor 40 in the X, Y, and Z axis directions perpendicular to each other. The rotation shaft that rotates the monitor 40 rotates as the motors 31, 32, and 33 rotate.

次に、指示部13の処理を、図2を用いて詳しく説明する。
指示部13は、決定部12から(x1−x2)の差分値を受け取った場合、すなわち、顔の位置座標が、撮像装置20が撮像した画像の中心からX軸方向に予め用意されている距離以上離れている場合、図2(a)に示すように、指示部13は、差分値が0となるようにZ軸に平行な回転軸54に接続されているモータ31を回転させるパルスを生成する。これにより、モータ31が回転し、モニタ40は、X−Y平面に平行な方向に回動する。
Next, the processing of the instruction unit 13 will be described in detail with reference to FIG.
When the instruction unit 13 receives the difference value (x1−x2) from the determination unit 12, that is, the distance in which the position coordinates of the face are prepared in advance in the X-axis direction from the center of the image captured by the imaging device 20. When the distance is more than the above, as shown in FIG. 2A, the instruction unit 13 generates a pulse for rotating the motor 31 connected to the rotation shaft 54 parallel to the Z axis so that the difference value becomes zero. To do. As a result, the motor 31 rotates and the monitor 40 rotates in a direction parallel to the XY plane.

指示部13は、決定部12から(y1−y2)の差分値を受け取った場合、すなわち、顔の位置座標が、撮像装置20が撮像した画像の中心からZ軸方向に予め用意されている距離以上ずれている場合、図2(b)に示すように、指示部13は、差分値が0となるようにX軸に平行な回転軸55に接続されているモータ32を回転させるパルスを生成する。これにより、モータ32が回転し、モニタ40は、Y−Z平面に平行な方向に回動する。   When the instruction unit 13 receives the difference value (y1-y2) from the determination unit 12, that is, the distance at which the face position coordinates are prepared in advance in the Z-axis direction from the center of the image captured by the imaging device 20. 2B, the instruction unit 13 generates a pulse for rotating the motor 32 connected to the rotation shaft 55 parallel to the X axis so that the difference value becomes 0, as shown in FIG. To do. As a result, the motor 32 rotates and the monitor 40 rotates in a direction parallel to the YZ plane.

顔の傾き角度が閾値以上である場合、図2(c)に示すように、指示部13は、Y軸に平行な回転軸56に接続されているモータ33を回転させるパルスを生成する。生成するパルスの数は、例えば、回転角/0.36により求めた整数の1の位を四捨五入した値を求める。そして求めた値が正なら反時計回り、負なら時計回りに回転させるパルスを生成する。これにより、モータ33が回転し、モニタ40は、X−Z平面に平行な方向に回動する。   When the face inclination angle is equal to or larger than the threshold value, the instruction unit 13 generates a pulse for rotating the motor 33 connected to the rotation shaft 56 parallel to the Y axis, as shown in FIG. As the number of pulses to be generated, for example, a value obtained by rounding off the one's place of an integer obtained by rotation angle / 0.36 is obtained. If the obtained value is positive, a pulse that rotates counterclockwise is generated, and if it is negative, a pulse that rotates clockwise is generated. As a result, the motor 33 rotates and the monitor 40 rotates in a direction parallel to the XZ plane.

なお、モータ31、32、33を回転させるか否かは、例えば視聴者等が図示しないリモートコントローラ等を用いて制御装置10の機能を任意に設定することができる。例えば、顔の位置座標が、撮像装置20が撮像した画像の中心からX軸方向に予め用意されている距離以上離れていてもモータ31を回転させないよう、制御装置10の機能を設定することができる。   Whether or not the motors 31, 32, and 33 are to be rotated can be arbitrarily set by the viewer or the like using, for example, a remote controller (not shown). For example, the function of the control device 10 can be set so that the motor 31 does not rotate even if the face position coordinates are separated from the center of the image captured by the imaging device 20 by a distance prepared in advance in the X-axis direction. it can.

以下、表示装置1の動作を、具体例を用いて説明する。
図3は、表示装置の動作を説明する図である。
図3(a)は、視聴者60の体および顔がモニタ40に正対しているときに撮像装置20が撮像した画像に対し、前処理部11aがノイズを除去した画像21を示している。識別部11bは、画像21から顔の領域を示す矩形の領域21aを抽出する。画像21において、検出部11cは、検出した顔の傾き角度が0°であるものと判断する。
Hereinafter, the operation of the display device 1 will be described using a specific example.
FIG. 3 is a diagram for explaining the operation of the display device.
FIG. 3A shows an image 21 in which noise is removed by the preprocessing unit 11a with respect to an image captured by the imaging device 20 when the body and face of the viewer 60 are directly facing the monitor 40. FIG. The identification unit 11b extracts a rectangular area 21a indicating a face area from the image 21. In the image 21, the detection unit 11c determines that the detected face inclination angle is 0 °.

決定部12は、画像21において顔の位置座標p1(x2,y2)のx座標は、撮像装置20が撮像した画像の中心座標p0(x1,y1)からX軸方向に予め用意されている距離以上離れていないものと判断する。また、決定部12は、顔の位置座標p1のy座標は、中心座標p0からZ軸方向に予め用意されている距離以上離れていないものと判断する。   The determining unit 12 determines that the x-coordinate of the face position coordinate p1 (x2, y2) in the image 21 is a distance prepared in advance in the X-axis direction from the center coordinate p0 (x1, y1) of the image captured by the imaging device 20. Judge that it is not far away. Further, the determination unit 12 determines that the y coordinate of the face position coordinate p1 is not separated from the center coordinate p0 by a distance prepared in advance in the Z-axis direction.

従って、決定部12は、顔の傾き角度および差分値を指示部13に送らず処理を終了する。
図3(b)に示すように、視聴者60の体がモニタ40に正対している状態で顔を右に傾けたときに撮像装置20が画像を撮像した場合、撮像された画像22には、顔が傾いた視聴者が写る。決定部12が顔の傾き角度が第1の閾値以上であると判断した場合、図3(c)に示すように、決定部12は、顔の傾き角度を指示部13に送る。
Therefore, the determination unit 12 ends the process without sending the face inclination angle and the difference value to the instruction unit 13.
As illustrated in FIG. 3B, when the imaging device 20 captures an image when the face of the viewer 60 is facing the monitor 40 and the face is tilted to the right, the captured image 22 includes , A viewer with a tilted face is shown. When the determination unit 12 determines that the face inclination angle is equal to or greater than the first threshold, the determination unit 12 sends the face inclination angle to the instruction unit 13 as illustrated in FIG.

決定部12は、画像22において顔の位置座標p2のx座標は、中心座標p0からX軸方向に予め用意されている距離以上離れているものと判断し、x座標の差分値を指示部13に送る。また、決定部12は、顔の位置座標p2のy座標は、中心座標p0からZ軸方向に予め用意されている距離以上離れていないものと判断する。   The determination unit 12 determines that the x-coordinate of the face position coordinate p2 in the image 22 is more than a distance prepared in advance in the X-axis direction from the center coordinate p0, and determines the difference value of the x-coordinate to the instruction unit 13. Send to. Further, the determination unit 12 determines that the y coordinate of the face position coordinate p2 is not separated from the center coordinate p0 by a distance prepared in advance in the Z-axis direction.

指示部13は、差分値に応じてZ軸に平行な回転軸54に接続されているモータ31を回転させるパルスを生成する。これにより、モータ31が駆動して回転軸54が時計回りに回転し、モニタ40は、X−Y平面に平行な方向に回動する。また、指示部13は、顔の傾き角度に応じてY軸に平行な回転軸56に接続されているモータ33を回転させるパルスを生成する。これにより、モータ33が駆動して回転軸56が時計回りに回転し、モニタ40は、X−Z平面に平行な方向に回動する。   The instruction unit 13 generates a pulse for rotating the motor 31 connected to the rotation shaft 54 parallel to the Z axis according to the difference value. As a result, the motor 31 is driven and the rotary shaft 54 rotates clockwise, and the monitor 40 rotates in a direction parallel to the XY plane. Further, the instruction unit 13 generates a pulse for rotating the motor 33 connected to the rotation shaft 56 parallel to the Y axis according to the tilt angle of the face. As a result, the motor 33 is driven to rotate the rotating shaft 56 clockwise, and the monitor 40 rotates in a direction parallel to the XZ plane.

図3(d)は、モニタ40の回転後に撮像装置20が撮像した画像23を示している。画像23は、図3(b)に示す画像22に比べ、視聴者60の顔の傾き角度が0°に近づいている。また、画像23の顔の位置座標p3のx座標は、位置座標p2のx座標に比べ、中心座標p0のx座標に近づいている。このように、顔の傾き角度を0°に近づけることで、モニタ40を視聴する際に視聴者の負荷を軽減することができる。   FIG. 3D shows an image 23 captured by the imaging device 20 after the monitor 40 is rotated. In the image 23, the inclination angle of the face of the viewer 60 is close to 0 ° compared to the image 22 shown in FIG. In addition, the x coordinate of the position coordinate p3 of the face of the image 23 is closer to the x coordinate of the center coordinate p0 than the x coordinate of the position coordinate p2. In this way, the viewer's load can be reduced when viewing the monitor 40 by bringing the face inclination angle close to 0 °.

次に、制御装置10の顔の傾き角度を0°に近づける処理を、フローチャートを用いて説明する。
図4は、制御装置の処理を示すフローチャートである。
Next, a process for bringing the tilt angle of the face of the control device 10 close to 0 ° will be described using a flowchart.
FIG. 4 is a flowchart showing processing of the control device.

[ステップS1] 傾き検出部11は、撮像装置20が撮像した連続する10フレーム分の画像を取得する。その後、ステップS2に遷移する。
[ステップS2] 傾き検出部11は、顔の傾きを検出する処理(傾き検出処理)を実行する。その後、ステップS3に遷移する。傾き検出処理の内容は、後に詳述する。
[Step S <b> 1] The tilt detection unit 11 acquires images of 10 consecutive frames captured by the imaging device 20. Thereafter, the process proceeds to step S2.
[Step S <b> 2] The tilt detection unit 11 executes a process of detecting the tilt of the face (tilt detection process). Thereafter, the process proceeds to step S3. The contents of the tilt detection process will be described in detail later.

[ステップS3] 傾き検出部11は、ステップS1にて取得した全てのフレーム分の画像について傾き検出処理が完了したか否かを判断する。全てのフレーム分の画像について傾き検出処理が完了した場合(ステップS3のYes)、ステップS4に遷移する。全てのフレーム分の画像について傾き検出処理が完了していない場合(ステップS3のNo)、ステップS2に遷移する。   [Step S3] The inclination detection unit 11 determines whether or not the inclination detection processing has been completed for all the frames of images acquired in step S1. When the tilt detection process is completed for all the images for the frames (Yes in step S3), the process proceeds to step S4. If the tilt detection processing has not been completed for all the images for the frames (No in step S3), the process proceeds to step S2.

[ステップS4] 決定部12は、ステップS2の傾き検出処理によって得られた顔の傾き角度の最頻出値を抽出する。その後、ステップS5に遷移する。
[ステップS5] 決定部12は、ステップS4にて抽出した傾き角度の最頻出値が閾値より大きいか否かを判断する。傾き角度の最頻出値が閾値より大きい場合(ステップS5のYes)、ステップS6に遷移する。傾き角度の最頻出値が閾値以下である場合(ステップS5のNo)、図4の処理を終了する。
[Step S4] The determination unit 12 extracts the most frequently occurring value of the face inclination angle obtained by the inclination detection process in step S2. Then, the process proceeds to step S5.
[Step S5] The determination unit 12 determines whether or not the most frequent value of the inclination angle extracted in step S4 is larger than a threshold value. When the most frequent inclination angle value is larger than the threshold value (Yes in step S5), the process proceeds to step S6. If the most frequent value of the tilt angle is equal to or less than the threshold value (No in step S5), the processing in FIG. 4 is terminated.

[ステップS6] 指示部13は、ステップS4にて抽出した傾き角度の最頻出値に基づきパルスを生成し、モータ33に送る。その後、図4の処理を終了する。
次に、図4のステップS2の傾き検出処理を詳しく説明する。
[Step S <b> 6] The instruction unit 13 generates a pulse based on the most frequent value of the tilt angle extracted in step S <b> 4 and sends the pulse to the motor 33. Thereafter, the process of FIG. 4 is terminated.
Next, the inclination detection process in step S2 of FIG. 4 will be described in detail.

図5は、傾き検出処理を示すフローチャートである。
[ステップS2a] 前処理部11aは、撮像装置20が撮像した画像のノイズ成分を除去する。その後、ステップS2bに遷移する。
FIG. 5 is a flowchart showing the tilt detection process.
[Step S <b> 2 a] The preprocessing unit 11 a removes a noise component of an image captured by the imaging device 20. Then, the process proceeds to step S2b.

[ステップS2b] 識別部11bは、前処理部11aが処理した画像に微分処理とパターンマッチングを施して顔の領域を抽出する。その後、ステップS2cに遷移する。
[ステップS2c] 識別部11bは、ステップS2bで顔領域を抽出したか否かを判断する。顔領域を抽出した場合(ステップS2cのYes)、ステップS2dに遷移する。顔領域を抽出していない場合(ステップS2cのNo)、ステップS2fに遷移する。
[Step S2b] The identification unit 11b performs a differentiation process and pattern matching on the image processed by the preprocessing unit 11a to extract a face region. Thereafter, the process proceeds to operation S2c.
[Step S2c] The identification unit 11b determines whether or not a face region has been extracted in step S2b. When the face area is extracted (Yes in step S2c), the process proceeds to step S2d. When the face area is not extracted (No in step S2c), the process proceeds to step S2f.

[ステップS2d] 識別部11bは、識別した顔が1つか否かを判断する。識別した顔が1つである場合(ステップS2dのYes)、ステップS2eに遷移する。識別した顔が2つ以上である場合(ステップS2dのNo)、ステップS2fに遷移する。   [Step S2d] The identification unit 11b determines whether there is one identified face. When there is one identified face (Yes in step S2d), the process proceeds to step S2e. If there are two or more identified faces (No in step S2d), the process proceeds to step S2f.

[ステップS2e] 検出部11cは、傾きを検出する。その後、図5の処理を終了する。
[ステップS2f] 検出部11cは、傾きを0°に決定する。その後、図5の処理を終了する。
[Step S2e] The detection unit 11c detects an inclination. Thereafter, the process of FIG.
[Step S2f] The detection unit 11c determines the inclination to be 0 °. Thereafter, the process of FIG.

次に、制御装置10のハードウェア構成を説明する。
図6は、制御装置のハードウェア構成を示す図である。
制御装置10は、CPU101によって装置全体が制御されている。CPU101には、バス105を介してRAM102と複数の周辺機器が接続されている。
Next, the hardware configuration of the control device 10 will be described.
FIG. 6 is a diagram illustrating a hardware configuration of the control device.
The entire control device 10 is controlled by the CPU 101. A RAM 102 and a plurality of peripheral devices are connected to the CPU 101 via a bus 105.

RAM(Random Access Memory)102は、制御装置10の主記憶装置として使用される。RAM102には、CPU101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、CPU101による処理に使用する各種データが格納される。   A RAM (Random Access Memory) 102 is used as a main storage device of the control device 10. The RAM 102 temporarily stores at least part of an OS (Operating System) program and application programs to be executed by the CPU 101. The RAM 102 stores various data used for processing by the CPU 101.

バス105には、ROM(Read Only Memory)103、および通信インタフェース104が接続されている。
ROM103は、制御装置10の二次記憶装置として使用される。ROM103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。
A ROM (Read Only Memory) 103 and a communication interface 104 are connected to the bus 105.
The ROM 103 is used as a secondary storage device of the control device 10. The ROM 103 stores an OS program, application programs, and various data.

通信インタフェース104は、ネットワーク50に接続されている。通信インタフェース104は、ネットワーク50を介して、他のコンピュータまたは通信機器との間でデータを送受信する。   The communication interface 104 is connected to the network 50. The communication interface 104 transmits and receives data to and from other computers or communication devices via the network 50.

以上のようなハードウェア構成によって、本実施の形態の処理機能を実現することができる。
以上述べたように、制御装置10によれば、視聴者の顔の傾きとモニタ40の傾きを一致させることにより、傾きのずれによる視聴者の疲労を軽減することができる。
With the hardware configuration as described above, the processing functions of the present embodiment can be realized.
As described above, according to the control device 10, the viewer's fatigue due to the deviation of the tilt can be reduced by matching the tilt of the viewer's face with the tilt of the monitor 40.

ところで、本実施の形態では、識別部11bが複数の顔領域を抽出した場合は、顔の傾き角度を0°に決定するようにした。しかしこれに限らず、顔領域の傾き角度の差が予め用意されている閾値(例えば20°)以上である場合、決定部12は、指示部13に顔の傾き角度を送らず処理を終了するようにしてもよい。また、顔領域の傾きの差が予め用意されている閾値(例えば20°)未満である場合、決定部12は、全員分の顔の傾き角度の平均を求め、求めた顔の傾き角度の平均値を指示部13に送るようにしてもよい。   By the way, in the present embodiment, when the identification unit 11b extracts a plurality of face regions, the face inclination angle is determined to be 0 °. However, the present invention is not limited to this, and when the difference between the tilt angles of the face area is equal to or greater than a predetermined threshold (for example, 20 °), the determination unit 12 ends the process without sending the tilt angle of the face to the instruction unit 13. You may do it. Further, when the difference in inclination of the face area is less than a threshold value prepared in advance (for example, 20 °), the determination unit 12 obtains the average of the face inclination angles for all members, and calculates the average of the obtained face inclination angles. The value may be sent to the instruction unit 13.

また、検出部11cは、識別部11bが初めに識別した人の顔の傾きに基づき顔の傾き角度を決定してもよい。また、撮像した画像の中心に最も近い人の顔の傾きに基づき顔の傾き角度を決定してもよい。   The detection unit 11c may determine the face inclination angle based on the inclination of the face of the person first identified by the identification unit 11b. Further, the face inclination angle may be determined based on the inclination of the face of the person closest to the center of the captured image.

<第2の実施の形態>
次に、第2の実施の形態の制御装置について説明する。
以下、第2の実施の形態の制御装置について、前述した第1の実施の形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
<Second Embodiment>
Next, a control device according to a second embodiment will be described.
Hereinafter, the control apparatus according to the second embodiment will be described with a focus on differences from the first embodiment described above, and description of similar matters will be omitted.

図7は、第2の実施の形態の表示装置の機能を示すブロック図である。
図7に示す第2の実施の形態の制御装置10は、傾き検出部11の機能が第1の実施の形態と異なっている。
FIG. 7 is a block diagram illustrating functions of the display device according to the second embodiment.
The control device 10 of the second embodiment shown in FIG. 7 is different from the first embodiment in the function of the inclination detection unit 11.

第2の実施の形態の傾き検出部11は、視聴者が身につけている眼鏡に取り付けられている複数の特徴部分(ポインタ)を検出し、検出した特徴部分の位置関係に基づき視聴者の顔の傾き角度を検出する。なお、身につける器具は眼鏡に限定されない。   The inclination detection unit 11 according to the second embodiment detects a plurality of feature portions (pointers) attached to the glasses worn by the viewer, and based on the positional relationship of the detected feature portions, the viewer's face The tilt angle of is detected. In addition, the instrument to wear is not limited to glasses.

図8は、眼鏡を説明する図である。
視聴者はモニタ40を視聴する際に、眼鏡200を身につける。モニタ40が3D表示機能を有している場合、眼鏡200は、3D表示された画像を視聴可能な眼鏡であってもよい。眼鏡200の上部には、矩形の眼鏡特徴部201が設けられている。眼鏡特徴部201の3つの角には、特徴部分202、203、204が設けられている。特徴部分202、203、204は、例えばQR(Quick Response)コードに用いられるような回転対称の相似図形である。
FIG. 8 is a diagram for explaining eyeglasses.
The viewer wears the glasses 200 when viewing the monitor 40. When the monitor 40 has a 3D display function, the glasses 200 may be glasses capable of viewing an image displayed in 3D. A rectangular spectacle feature 201 is provided at the top of the spectacles 200. Characteristic portions 202, 203, and 204 are provided at three corners of the spectacle feature portion 201. The feature portions 202, 203, and 204 are rotationally symmetric similar figures such as those used in QR (Quick Response) codes.

検出部11dは、前処理部11aが処理した画像と、制御装置10内に予め用意されている特徴部分を特定するデータとをパターンマッチングして特徴部分202、203、204を識別する。そして、検出部11dは、特徴部分202、203、204の位置関係に基づき地面に対する眼鏡200の傾き角度を検出する。   The detection unit 11d identifies the feature portions 202, 203, and 204 by pattern matching the image processed by the preprocessing unit 11a and data that specifies the feature portion prepared in advance in the control device 10. The detection unit 11d detects the tilt angle of the glasses 200 with respect to the ground based on the positional relationship between the characteristic portions 202, 203, and 204.

図9は、第2の実施の形態の傾き検出処理を示すフローチャートである。図5と同様の処理を実行するステップについては、図5と同じステップ番号を付している。
[ステップS2a] 前処理部11aは、撮像装置20が撮像した画像のノイズ成分を除去する。その後、ステップS2c1に遷移する。
FIG. 9 is a flowchart illustrating an inclination detection process according to the second embodiment. Steps for executing the same processing as in FIG. 5 are given the same step numbers as in FIG.
[Step S <b> 2 a] The preprocessing unit 11 a removes a noise component of an image captured by the imaging device 20. Then, the process proceeds to step S2c1.

[ステップS2c1] 検出部11dは、前処理部11aが処理した画像と、制御装置10内に予め用意されている特徴部分を特定するデータとをパターンマッチングする。そして、検出部11dは、特徴部分202、203、204が識別できたか否かを判断する。特徴部分202、203、204が識別できた場合(ステップS2c1のYes)、ステップS2d1に遷移する。特徴部分202、203、204が識別できなかった場合(ステップS2c1のNo)、ステップS2fに遷移する。   [Step S2c1] The detection unit 11d performs pattern matching between the image processed by the preprocessing unit 11a and data specifying a feature portion prepared in advance in the control device 10. Then, the detection unit 11d determines whether or not the characteristic portions 202, 203, and 204 have been identified. When the characteristic portions 202, 203, and 204 can be identified (Yes in step S2c1), the process proceeds to step S2d1. When the characteristic portions 202, 203, and 204 cannot be identified (No in step S2c1), the process proceeds to step S2f.

[ステップS2d1] 検出部11dは、識別した特徴部分202、203、204が1つ(1セット)か否かを判断する。識別した特徴部分202、203、204が1つである場合(ステップS2d1のYes)、ステップS2eに遷移する。識別した特徴部分202、203、204が2つ以上である場合(ステップS2d1のNo)、ステップS2fに遷移する。   [Step S2d1] The detection unit 11d determines whether or not the identified feature portions 202, 203, and 204 are one (one set). When there is one identified feature portion 202, 203, 204 (Yes in step S2d1), the process proceeds to step S2e. When there are two or more identified feature portions 202, 203, and 204 (No in step S2d1), the process proceeds to step S2f.

[ステップS2e] 検出部11dは、特徴部分202、203、204の位置関係に基づき地面に対する眼鏡200の傾き角度を検出する。その後、図9の処理を終了する。
[ステップS2f] 検出部11dは、地面に対する眼鏡200の傾き角度を0°に決定する。その後、図9の処理を終了する。
[Step S2e] The detection unit 11d detects the tilt angle of the glasses 200 with respect to the ground based on the positional relationship between the feature portions 202, 203, and 204. Then, the process of FIG. 9 is complete | finished.
[Step S2f] The detection unit 11d determines that the inclination angle of the glasses 200 with respect to the ground is 0 °. Then, the process of FIG. 9 is complete | finished.

第2の実施の形態の制御装置10によれば、第1の実施の形態の制御装置10と同様の効果が得られる。
そして、第2の実施の形態の制御装置10によれば、特徴部分202、203、204に基づき顔の傾き角度を決定するので、顔を識別する場合に比べて識別が簡略化され、傾き角度をより早く検出することができる。また、検出精度を高めることもできる。
According to the control device 10 of the second embodiment, the same effect as that of the control device 10 of the first embodiment can be obtained.
According to the control device 10 of the second embodiment, since the face inclination angle is determined based on the feature portions 202, 203, and 204, the identification is simplified compared to the case of identifying the face, and the inclination angle Can be detected earlier. Also, the detection accuracy can be increased.

以上、本発明の表示装置、制御方法およびプログラムを、図示の実施の形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物や工程が付加されていてもよい。   The display device, the control method, and the program of the present invention have been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each unit is an arbitrary function having the same function. It can be replaced with that of the configuration. Moreover, other arbitrary structures and processes may be added to the present invention.

また、本発明は、前述した各実施の形態のうちの、任意の2以上の構成(特徴)を組み合わせたものであってもよい。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、制御装置10が有する機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリ等が挙げられる。磁気記憶装置には、ハードディスクドライブ、フレキシブルディスク(FD)、磁気テープ等が挙げられる。光ディスクには、Blu−ray(登録商標)、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等が挙げられる。光磁気記録媒体には、MO(Magneto-Optical disk)等が挙げられる。
Further, the present invention may be a combination of any two or more configurations (features) of the above-described embodiments.
The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions of the control device 10 is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic storage device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic storage device include a hard disk drive, a flexible disk (FD), and a magnetic tape. Examples of the optical disc include Blu-ray (registered trademark), DVD (Digital Versatile Disc), DVD-RAM, CD-ROM (Compact Disc Read Only Memory), CD-R (Recordable) / RW (ReWritable), and the like. Examples of the magneto-optical recording medium include an MO (Magneto-Optical disk).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROM等の可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When distributing the program, for example, a portable recording medium such as a DVD or a CD-ROM in which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time a program is transferred from a server computer connected via a network, the computer can sequentially execute processing according to the received program.

また、上記の処理機能の少なくとも一部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)等の電子回路で実現することもできる。   Further, at least a part of the above processing functions can be realized by an electronic circuit such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device).

1 表示装置
10 制御装置
11 傾き検出部
11a 前処理部
11b 識別部
11c、11d 検出部
12 決定部
13 指示部
20 撮像装置
21、22、23 画像
31、32、33 モータ
40 モニタ
200 眼鏡
201 眼鏡特徴部
202、203、204 特徴部分
DESCRIPTION OF SYMBOLS 1 Display apparatus 10 Control apparatus 11 Inclination detection part 11a Pre-processing part 11b Identification part 11c, 11d Detection part 12 Determination part 13 Instruction part 20 Imaging device 21, 22, 23 Image 31, 32, 33 Motor 40 Monitor 200 Glasses 201 Glasses characteristic Part 202, 203, 204 Characteristic part

Claims (6)

撮像装置により撮像された画像に含まれる視聴者の顔の検出領域から視聴者の顔の傾き角度を検出する検出部と、
前記検出部により検出された角度が0°に近づくように画像を表示するモニタの回転角度を決定する決定部と、
を有することを特徴とする表示装置。
A detection unit for detecting a tilt angle of the viewer's face from a detection area of the viewer's face included in the image captured by the imaging device;
A determination unit that determines a rotation angle of a monitor that displays an image so that the angle detected by the detection unit approaches 0 °;
A display device comprising:
前記検出部は、所定時間以内に顔の傾き角度の検出を複数回繰り返し実行し、前記決定部は、最も出現頻度の大きい角度に応じて前記モニタの回転角度を決定することを特徴とする請求項1記載の表示装置。   The detection unit repeatedly performs detection of a face inclination angle a plurality of times within a predetermined time, and the determination unit determines a rotation angle of the monitor according to an angle having the highest appearance frequency. Item 4. The display device according to Item 1. 前記決定部は、最も出現頻度の大きい角度が所定の角度よりも大きい場合、前記モニタを回転することを決定することを特徴とする請求項1記載の表示装置。   The display device according to claim 1, wherein the determination unit determines to rotate the monitor when an angle having the highest appearance frequency is larger than a predetermined angle. 前記検出部は、視聴者が身につけた器具に設けられた位置検出用のポインタから顔の傾きを検出することを特徴とする請求項1記載の表示装置。   The display device according to claim 1, wherein the detection unit detects a tilt of a face from a position detection pointer provided on an instrument worn by a viewer. コンピュータが、
撮像装置により撮像された画像に含まれる視聴者の顔の検出領域から視聴者の顔の傾き角度を検出し、
検出された角度が0°に近づくように画像を表示するモニタの回転角度を決定する、
ことを特徴とする制御方法。
Computer
Detecting the tilt angle of the viewer's face from the detection area of the viewer's face included in the image captured by the imaging device;
Determining the rotation angle of the monitor that displays the image so that the detected angle approaches 0 °;
A control method characterized by that.
コンピュータに、
撮像装置により撮像された画像に含まれる視聴者の顔の検出領域から視聴者の顔の傾き角度を検出し、
検出された角度が0°に近づくように画像を表示するモニタの回転角度を決定する、
処理を実行させることを特徴とするプログラム。
On the computer,
Detecting the tilt angle of the viewer's face from the detection area of the viewer's face included in the image captured by the imaging device;
Determining the rotation angle of the monitor that displays the image so that the detected angle approaches 0 °;
A program characterized by causing processing to be executed.
JP2012081014A 2012-03-30 2012-03-30 Display device, control method, and program Pending JP2013211714A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012081014A JP2013211714A (en) 2012-03-30 2012-03-30 Display device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012081014A JP2013211714A (en) 2012-03-30 2012-03-30 Display device, control method, and program

Publications (1)

Publication Number Publication Date
JP2013211714A true JP2013211714A (en) 2013-10-10

Family

ID=49529193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012081014A Pending JP2013211714A (en) 2012-03-30 2012-03-30 Display device, control method, and program

Country Status (1)

Country Link
JP (1) JP2013211714A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022511987A (en) * 2019-04-26 2022-02-01 サムスン エレクトロニクス カンパニー リミテッド Display device and its control method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022511987A (en) * 2019-04-26 2022-02-01 サムスン エレクトロニクス カンパニー リミテッド Display device and its control method
JP7041792B2 (en) 2019-04-26 2022-03-24 サムスン エレクトロニクス カンパニー リミテッド Display device and its control method
US11601615B2 (en) 2019-04-26 2023-03-07 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Similar Documents

Publication Publication Date Title
US11893689B2 (en) Automated three dimensional model generation
US9311883B2 (en) Recalibration of a flexible mixed reality device
CN111198608B (en) Information prompting method and device, terminal equipment and computer readable storage medium
JP6723814B2 (en) Information processing apparatus, control method thereof, program, and storage medium
CN104182114A (en) Method and system for adjusting image display direction of mobile equipment
EP3633606B1 (en) Information processing device, information processing method, and program
JP6123694B2 (en) Information processing apparatus, information processing method, and program
US11011140B2 (en) Image rendering method and apparatus, and VR device
WO2017187694A1 (en) Region of interest image generating device
WO2018098862A1 (en) Gesture recognition method and device for virtual reality apparatus, and virtual reality apparatus
US10254893B2 (en) Operating apparatus, control method therefor, and storage medium storing program
JP2012208705A (en) Image operation apparatus, image operation method and program
WO2013178151A1 (en) Screen turnover method and device, and mobile terminal
GB2530150A (en) Information processing apparatus for detecting object from image, method for controlling the apparatus, and storage medium
US20190369807A1 (en) Information processing device, information processing method, and program
JP2017084307A (en) Information processing device, control method therefor, program, and recording medium
JP2013211714A (en) Display device, control method, and program
CN112308981A (en) Image processing method, image processing device, electronic equipment and storage medium
JP2018063555A (en) Information processing device, information processing method, and program
WO2020095400A1 (en) Characteristic point extraction device, characteristic point extraction method, and program storage medium
JP2016139396A (en) User interface device, method and program
JP2007241478A (en) Image processor, control method for image processor and program
JP2020086844A (en) Image processing system, image processing method, and program
EP4227732A1 (en) Method for head image recording and corresponding mobile device
US20230224451A1 (en) Information processing apparatus, information processing method, and program