JP2013211714A - Display device, control method, and program - Google Patents
Display device, control method, and program Download PDFInfo
- Publication number
- JP2013211714A JP2013211714A JP2012081014A JP2012081014A JP2013211714A JP 2013211714 A JP2013211714 A JP 2013211714A JP 2012081014 A JP2012081014 A JP 2012081014A JP 2012081014 A JP2012081014 A JP 2012081014A JP 2013211714 A JP2013211714 A JP 2013211714A
- Authority
- JP
- Japan
- Prior art keywords
- face
- angle
- viewer
- monitor
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は表示装置、制御方法およびプログラムに関する。 The present invention relates to a display device, a control method, and a program.
テレビ等のモニタ画面を見る際に、視聴者の負担を軽減する方法が知られている。例えば、画像認識処理により検出された眼球位置に基づいて、モニタ画面が人間の正対位置を向くように回転台の角度を制御する信号を出力し、これらの信号を受けた制御装置が回転台を制御する技術が知られている。 A method of reducing the burden on the viewer when viewing a monitor screen of a television or the like is known. For example, based on the eyeball position detected by the image recognition processing, a signal for controlling the angle of the turntable is output so that the monitor screen faces the human facing position. A technique for controlling the above is known.
例えば、眼球位置に基づいて、モニタ画面が人間の正対位置を向くように回転台を制御する場合を考える。長時間同じ姿勢を維持することは難しい。また、寝ころんだ姿勢で視聴を希望する場合等がある。 For example, consider a case where the turntable is controlled based on the eyeball position so that the monitor screen faces the human facing position. It is difficult to maintain the same posture for a long time. In addition, there are cases where viewing is desired in a lying position.
1つの側面では、本発明は、視聴者の負担を軽減することを目的とする。 In one aspect, the present invention aims to reduce the burden on the viewer.
上記目的を達成するために、開示の制御装置が提供される。この制御装置は、検出部と、決定部とを有している。検出部は、撮像装置により撮像された画像に含まれる視聴者の顔の検出領域から視聴者の顔の傾き角度を検出する。決定部は、検出部により検出された角度が0°に近づくように画像を表示するモニタの回転角度を決定する。 In order to achieve the above object, a disclosed control device is provided. This control apparatus has a detection part and a determination part. The detection unit detects the tilt angle of the viewer's face from the viewer's face detection area included in the image captured by the imaging device. The determination unit determines the rotation angle of the monitor that displays the image so that the angle detected by the detection unit approaches 0 °.
1態様では、視聴者の負担を軽減することができる。 In one aspect, the burden on the viewer can be reduced.
以下、実施の形態の表示装置を、図面を参照して詳細に説明する。
<第1の実施の形態>
図1は、第1の実施の形態の表示装置の機能を示すブロック図であり、図2は、表示装置の外形を示す図である。図2では互いに垂直なX、Y、Z軸方向を規定する。X―Y平面は、地面に平行な平面である。
Hereinafter, a display device according to an embodiment will be described in detail with reference to the drawings.
<First Embodiment>
FIG. 1 is a block diagram illustrating functions of the display device according to the first embodiment, and FIG. 2 is a diagram illustrating an outer shape of the display device. In FIG. 2, the X, Y, and Z axis directions perpendicular to each other are defined. The XY plane is a plane parallel to the ground.
図1に示すように、第1の実施の形態の表示装置1は、制御装置(コンピュータ)10と、撮像装置20と、モータ31、32、33とモニタ40とを有している。モニタ40は、図示しないCPU(Central Processing Unit)からの命令に従って、画像をモニタ40の画面に表示させる図示しないグラフィック処理装置に接続されている。モニタ40としては、CRT(Cathode Ray Tube)を用いた装置や、液晶表示装置等が挙げられる。図2に示すように、モニタ40は、支持部52、53を介して基台51上に設置されている。支持部52内には、Z軸に平行な回転軸54が埋め込まれている。支持部53の先端部分には、X軸に平行な回転軸55が埋め込まれている。また、支持部53には、Y軸に平行な回転軸56が埋め込まれている。
As illustrated in FIG. 1, the display device 1 according to the first embodiment includes a control device (computer) 10, an
再び図1に戻って説明する。
撮像装置20は、モニタ40の表示面側に撮像素子が位置するようにモニタ40に取り付けられている。撮像素子としては、CCD(Charge Coupled Device)イメージセンサや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等が挙げられる。撮像装置20は、定期的に画像を撮像し、撮像した画像を制御装置10に送る。
Returning again to FIG.
The
制御装置10は、傾き検出部11と、決定部12と、指示部13とを有している。
傾き検出部11は、前処理部11aと、識別部11bと、検出部11cとを有している。
The control device 10 includes an inclination detection unit 11, a
The inclination detection unit 11 includes a preprocessing
前処理部11aは、撮像装置20が撮像した画像のノイズ成分を除去する。ノイズ成分の除去には、例えばメディアンフィルタ等を用いることができる。
識別部11bは、前処理部11aが処理した画像に微分処理を施して制御装置10内に予め用意されている顔の特徴パーツとをパターンマッチングして顔の領域を示す矩形の領域を抽出する。顔の領域を抽出する方法は、例えばViola−Jones法を用いることができる。
The preprocessing
The
検出部11cは、識別部11bが抽出した顔領域の地面に対する傾き角度を検出する。
以下の説明では、撮像装置20が撮像した画像の座標系を、図2のXYZ座標系とは異なるxy座標系で表現し、画像の左下を原点(0,0)に設定する。決定部12は、撮像装置20が撮像した画像の中心座標(x1、y1)と、顔の位置座標(x2、y2)とを比較する。顔の位置座標は、例えば識別部11bが識別したエッジの中心点の座標に設定する。決定部12は、(x1−x2)の絶対値が予め用意されている閾値以上である場合、その差分値を指示部13に送る。また、決定部12は、(y1−y2)の絶対値が予め用意されている閾値以上である場合、その差分値を指示部13に送る。
The
In the following description, the coordinate system of the image captured by the
また、決定部12は、傾き検出部11が複数回処理を実行することにより得られる顔の傾き角度の最頻出値を抽出する。決定部12は、顔の傾き角度の最頻出値が予め用意されている閾値(以下、第1の閾値という)より大きい場合、顔の傾き角度を指示部13に送る。他方、決定部12は、顔の傾き角度の最頻出値が第1の閾値以下である場合、指示部13に顔の傾き角度を送らず処理を終了する。
Further, the
指示部13は、決定部12から受け取った顔の傾き角度および差分値に基づきパルスを生成する。そして、モータ31、32、33に送る。なお、指示部13がモータにパルスを送る間隔は、例えば1秒毎である。
The
モータ31、32、33は、それぞれステッピングモータであり、モータ31、32、33は、制御装置10から受け取ったパルスに基づき回転する。モータ31、32、33は、それぞれモニタ40を互いに垂直なX、Y、Z軸方向に回転させるための回転軸54、55、56に取り付けられている。モニタ40を回転させる回転軸は、モータ31、32、33の回転に伴い、回動する。
The
次に、指示部13の処理を、図2を用いて詳しく説明する。
指示部13は、決定部12から(x1−x2)の差分値を受け取った場合、すなわち、顔の位置座標が、撮像装置20が撮像した画像の中心からX軸方向に予め用意されている距離以上離れている場合、図2(a)に示すように、指示部13は、差分値が0となるようにZ軸に平行な回転軸54に接続されているモータ31を回転させるパルスを生成する。これにより、モータ31が回転し、モニタ40は、X−Y平面に平行な方向に回動する。
Next, the processing of the
When the
指示部13は、決定部12から(y1−y2)の差分値を受け取った場合、すなわち、顔の位置座標が、撮像装置20が撮像した画像の中心からZ軸方向に予め用意されている距離以上ずれている場合、図2(b)に示すように、指示部13は、差分値が0となるようにX軸に平行な回転軸55に接続されているモータ32を回転させるパルスを生成する。これにより、モータ32が回転し、モニタ40は、Y−Z平面に平行な方向に回動する。
When the
顔の傾き角度が閾値以上である場合、図2(c)に示すように、指示部13は、Y軸に平行な回転軸56に接続されているモータ33を回転させるパルスを生成する。生成するパルスの数は、例えば、回転角/0.36により求めた整数の1の位を四捨五入した値を求める。そして求めた値が正なら反時計回り、負なら時計回りに回転させるパルスを生成する。これにより、モータ33が回転し、モニタ40は、X−Z平面に平行な方向に回動する。
When the face inclination angle is equal to or larger than the threshold value, the
なお、モータ31、32、33を回転させるか否かは、例えば視聴者等が図示しないリモートコントローラ等を用いて制御装置10の機能を任意に設定することができる。例えば、顔の位置座標が、撮像装置20が撮像した画像の中心からX軸方向に予め用意されている距離以上離れていてもモータ31を回転させないよう、制御装置10の機能を設定することができる。
Whether or not the
以下、表示装置1の動作を、具体例を用いて説明する。
図3は、表示装置の動作を説明する図である。
図3(a)は、視聴者60の体および顔がモニタ40に正対しているときに撮像装置20が撮像した画像に対し、前処理部11aがノイズを除去した画像21を示している。識別部11bは、画像21から顔の領域を示す矩形の領域21aを抽出する。画像21において、検出部11cは、検出した顔の傾き角度が0°であるものと判断する。
Hereinafter, the operation of the display device 1 will be described using a specific example.
FIG. 3 is a diagram for explaining the operation of the display device.
FIG. 3A shows an
決定部12は、画像21において顔の位置座標p1(x2,y2)のx座標は、撮像装置20が撮像した画像の中心座標p0(x1,y1)からX軸方向に予め用意されている距離以上離れていないものと判断する。また、決定部12は、顔の位置座標p1のy座標は、中心座標p0からZ軸方向に予め用意されている距離以上離れていないものと判断する。
The determining
従って、決定部12は、顔の傾き角度および差分値を指示部13に送らず処理を終了する。
図3(b)に示すように、視聴者60の体がモニタ40に正対している状態で顔を右に傾けたときに撮像装置20が画像を撮像した場合、撮像された画像22には、顔が傾いた視聴者が写る。決定部12が顔の傾き角度が第1の閾値以上であると判断した場合、図3(c)に示すように、決定部12は、顔の傾き角度を指示部13に送る。
Therefore, the
As illustrated in FIG. 3B, when the
決定部12は、画像22において顔の位置座標p2のx座標は、中心座標p0からX軸方向に予め用意されている距離以上離れているものと判断し、x座標の差分値を指示部13に送る。また、決定部12は、顔の位置座標p2のy座標は、中心座標p0からZ軸方向に予め用意されている距離以上離れていないものと判断する。
The
指示部13は、差分値に応じてZ軸に平行な回転軸54に接続されているモータ31を回転させるパルスを生成する。これにより、モータ31が駆動して回転軸54が時計回りに回転し、モニタ40は、X−Y平面に平行な方向に回動する。また、指示部13は、顔の傾き角度に応じてY軸に平行な回転軸56に接続されているモータ33を回転させるパルスを生成する。これにより、モータ33が駆動して回転軸56が時計回りに回転し、モニタ40は、X−Z平面に平行な方向に回動する。
The
図3(d)は、モニタ40の回転後に撮像装置20が撮像した画像23を示している。画像23は、図3(b)に示す画像22に比べ、視聴者60の顔の傾き角度が0°に近づいている。また、画像23の顔の位置座標p3のx座標は、位置座標p2のx座標に比べ、中心座標p0のx座標に近づいている。このように、顔の傾き角度を0°に近づけることで、モニタ40を視聴する際に視聴者の負荷を軽減することができる。
FIG. 3D shows an
次に、制御装置10の顔の傾き角度を0°に近づける処理を、フローチャートを用いて説明する。
図4は、制御装置の処理を示すフローチャートである。
Next, a process for bringing the tilt angle of the face of the control device 10 close to 0 ° will be described using a flowchart.
FIG. 4 is a flowchart showing processing of the control device.
[ステップS1] 傾き検出部11は、撮像装置20が撮像した連続する10フレーム分の画像を取得する。その後、ステップS2に遷移する。
[ステップS2] 傾き検出部11は、顔の傾きを検出する処理(傾き検出処理)を実行する。その後、ステップS3に遷移する。傾き検出処理の内容は、後に詳述する。
[Step S <b> 1] The tilt detection unit 11 acquires images of 10 consecutive frames captured by the
[Step S <b> 2] The tilt detection unit 11 executes a process of detecting the tilt of the face (tilt detection process). Thereafter, the process proceeds to step S3. The contents of the tilt detection process will be described in detail later.
[ステップS3] 傾き検出部11は、ステップS1にて取得した全てのフレーム分の画像について傾き検出処理が完了したか否かを判断する。全てのフレーム分の画像について傾き検出処理が完了した場合(ステップS3のYes)、ステップS4に遷移する。全てのフレーム分の画像について傾き検出処理が完了していない場合(ステップS3のNo)、ステップS2に遷移する。 [Step S3] The inclination detection unit 11 determines whether or not the inclination detection processing has been completed for all the frames of images acquired in step S1. When the tilt detection process is completed for all the images for the frames (Yes in step S3), the process proceeds to step S4. If the tilt detection processing has not been completed for all the images for the frames (No in step S3), the process proceeds to step S2.
[ステップS4] 決定部12は、ステップS2の傾き検出処理によって得られた顔の傾き角度の最頻出値を抽出する。その後、ステップS5に遷移する。
[ステップS5] 決定部12は、ステップS4にて抽出した傾き角度の最頻出値が閾値より大きいか否かを判断する。傾き角度の最頻出値が閾値より大きい場合(ステップS5のYes)、ステップS6に遷移する。傾き角度の最頻出値が閾値以下である場合(ステップS5のNo)、図4の処理を終了する。
[Step S4] The
[Step S5] The
[ステップS6] 指示部13は、ステップS4にて抽出した傾き角度の最頻出値に基づきパルスを生成し、モータ33に送る。その後、図4の処理を終了する。
次に、図4のステップS2の傾き検出処理を詳しく説明する。
[Step S <b> 6] The
Next, the inclination detection process in step S2 of FIG. 4 will be described in detail.
図5は、傾き検出処理を示すフローチャートである。
[ステップS2a] 前処理部11aは、撮像装置20が撮像した画像のノイズ成分を除去する。その後、ステップS2bに遷移する。
FIG. 5 is a flowchart showing the tilt detection process.
[Step S <b> 2 a] The
[ステップS2b] 識別部11bは、前処理部11aが処理した画像に微分処理とパターンマッチングを施して顔の領域を抽出する。その後、ステップS2cに遷移する。
[ステップS2c] 識別部11bは、ステップS2bで顔領域を抽出したか否かを判断する。顔領域を抽出した場合(ステップS2cのYes)、ステップS2dに遷移する。顔領域を抽出していない場合(ステップS2cのNo)、ステップS2fに遷移する。
[Step S2b] The
[Step S2c] The
[ステップS2d] 識別部11bは、識別した顔が1つか否かを判断する。識別した顔が1つである場合(ステップS2dのYes)、ステップS2eに遷移する。識別した顔が2つ以上である場合(ステップS2dのNo)、ステップS2fに遷移する。
[Step S2d] The
[ステップS2e] 検出部11cは、傾きを検出する。その後、図5の処理を終了する。
[ステップS2f] 検出部11cは、傾きを0°に決定する。その後、図5の処理を終了する。
[Step S2e] The
[Step S2f] The
次に、制御装置10のハードウェア構成を説明する。
図6は、制御装置のハードウェア構成を示す図である。
制御装置10は、CPU101によって装置全体が制御されている。CPU101には、バス105を介してRAM102と複数の周辺機器が接続されている。
Next, the hardware configuration of the control device 10 will be described.
FIG. 6 is a diagram illustrating a hardware configuration of the control device.
The entire control device 10 is controlled by the
RAM(Random Access Memory)102は、制御装置10の主記憶装置として使用される。RAM102には、CPU101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、CPU101による処理に使用する各種データが格納される。
A RAM (Random Access Memory) 102 is used as a main storage device of the control device 10. The
バス105には、ROM(Read Only Memory)103、および通信インタフェース104が接続されている。
ROM103は、制御装置10の二次記憶装置として使用される。ROM103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。
A ROM (Read Only Memory) 103 and a
The
通信インタフェース104は、ネットワーク50に接続されている。通信インタフェース104は、ネットワーク50を介して、他のコンピュータまたは通信機器との間でデータを送受信する。
The
以上のようなハードウェア構成によって、本実施の形態の処理機能を実現することができる。
以上述べたように、制御装置10によれば、視聴者の顔の傾きとモニタ40の傾きを一致させることにより、傾きのずれによる視聴者の疲労を軽減することができる。
With the hardware configuration as described above, the processing functions of the present embodiment can be realized.
As described above, according to the control device 10, the viewer's fatigue due to the deviation of the tilt can be reduced by matching the tilt of the viewer's face with the tilt of the
ところで、本実施の形態では、識別部11bが複数の顔領域を抽出した場合は、顔の傾き角度を0°に決定するようにした。しかしこれに限らず、顔領域の傾き角度の差が予め用意されている閾値(例えば20°)以上である場合、決定部12は、指示部13に顔の傾き角度を送らず処理を終了するようにしてもよい。また、顔領域の傾きの差が予め用意されている閾値(例えば20°)未満である場合、決定部12は、全員分の顔の傾き角度の平均を求め、求めた顔の傾き角度の平均値を指示部13に送るようにしてもよい。
By the way, in the present embodiment, when the
また、検出部11cは、識別部11bが初めに識別した人の顔の傾きに基づき顔の傾き角度を決定してもよい。また、撮像した画像の中心に最も近い人の顔の傾きに基づき顔の傾き角度を決定してもよい。
The
<第2の実施の形態>
次に、第2の実施の形態の制御装置について説明する。
以下、第2の実施の形態の制御装置について、前述した第1の実施の形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
<Second Embodiment>
Next, a control device according to a second embodiment will be described.
Hereinafter, the control apparatus according to the second embodiment will be described with a focus on differences from the first embodiment described above, and description of similar matters will be omitted.
図7は、第2の実施の形態の表示装置の機能を示すブロック図である。
図7に示す第2の実施の形態の制御装置10は、傾き検出部11の機能が第1の実施の形態と異なっている。
FIG. 7 is a block diagram illustrating functions of the display device according to the second embodiment.
The control device 10 of the second embodiment shown in FIG. 7 is different from the first embodiment in the function of the inclination detection unit 11.
第2の実施の形態の傾き検出部11は、視聴者が身につけている眼鏡に取り付けられている複数の特徴部分(ポインタ)を検出し、検出した特徴部分の位置関係に基づき視聴者の顔の傾き角度を検出する。なお、身につける器具は眼鏡に限定されない。 The inclination detection unit 11 according to the second embodiment detects a plurality of feature portions (pointers) attached to the glasses worn by the viewer, and based on the positional relationship of the detected feature portions, the viewer's face The tilt angle of is detected. In addition, the instrument to wear is not limited to glasses.
図8は、眼鏡を説明する図である。
視聴者はモニタ40を視聴する際に、眼鏡200を身につける。モニタ40が3D表示機能を有している場合、眼鏡200は、3D表示された画像を視聴可能な眼鏡であってもよい。眼鏡200の上部には、矩形の眼鏡特徴部201が設けられている。眼鏡特徴部201の3つの角には、特徴部分202、203、204が設けられている。特徴部分202、203、204は、例えばQR(Quick Response)コードに用いられるような回転対称の相似図形である。
FIG. 8 is a diagram for explaining eyeglasses.
The viewer wears the glasses 200 when viewing the
検出部11dは、前処理部11aが処理した画像と、制御装置10内に予め用意されている特徴部分を特定するデータとをパターンマッチングして特徴部分202、203、204を識別する。そして、検出部11dは、特徴部分202、203、204の位置関係に基づき地面に対する眼鏡200の傾き角度を検出する。
The
図9は、第2の実施の形態の傾き検出処理を示すフローチャートである。図5と同様の処理を実行するステップについては、図5と同じステップ番号を付している。
[ステップS2a] 前処理部11aは、撮像装置20が撮像した画像のノイズ成分を除去する。その後、ステップS2c1に遷移する。
FIG. 9 is a flowchart illustrating an inclination detection process according to the second embodiment. Steps for executing the same processing as in FIG. 5 are given the same step numbers as in FIG.
[Step S <b> 2 a] The
[ステップS2c1] 検出部11dは、前処理部11aが処理した画像と、制御装置10内に予め用意されている特徴部分を特定するデータとをパターンマッチングする。そして、検出部11dは、特徴部分202、203、204が識別できたか否かを判断する。特徴部分202、203、204が識別できた場合(ステップS2c1のYes)、ステップS2d1に遷移する。特徴部分202、203、204が識別できなかった場合(ステップS2c1のNo)、ステップS2fに遷移する。
[Step S2c1] The
[ステップS2d1] 検出部11dは、識別した特徴部分202、203、204が1つ(1セット)か否かを判断する。識別した特徴部分202、203、204が1つである場合(ステップS2d1のYes)、ステップS2eに遷移する。識別した特徴部分202、203、204が2つ以上である場合(ステップS2d1のNo)、ステップS2fに遷移する。
[Step S2d1] The
[ステップS2e] 検出部11dは、特徴部分202、203、204の位置関係に基づき地面に対する眼鏡200の傾き角度を検出する。その後、図9の処理を終了する。
[ステップS2f] 検出部11dは、地面に対する眼鏡200の傾き角度を0°に決定する。その後、図9の処理を終了する。
[Step S2e] The
[Step S2f] The
第2の実施の形態の制御装置10によれば、第1の実施の形態の制御装置10と同様の効果が得られる。
そして、第2の実施の形態の制御装置10によれば、特徴部分202、203、204に基づき顔の傾き角度を決定するので、顔を識別する場合に比べて識別が簡略化され、傾き角度をより早く検出することができる。また、検出精度を高めることもできる。
According to the control device 10 of the second embodiment, the same effect as that of the control device 10 of the first embodiment can be obtained.
According to the control device 10 of the second embodiment, since the face inclination angle is determined based on the feature portions 202, 203, and 204, the identification is simplified compared to the case of identifying the face, and the inclination angle Can be detected earlier. Also, the detection accuracy can be increased.
以上、本発明の表示装置、制御方法およびプログラムを、図示の実施の形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物や工程が付加されていてもよい。 The display device, the control method, and the program of the present invention have been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each unit is an arbitrary function having the same function. It can be replaced with that of the configuration. Moreover, other arbitrary structures and processes may be added to the present invention.
また、本発明は、前述した各実施の形態のうちの、任意の2以上の構成(特徴)を組み合わせたものであってもよい。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、制御装置10が有する機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリ等が挙げられる。磁気記憶装置には、ハードディスクドライブ、フレキシブルディスク(FD)、磁気テープ等が挙げられる。光ディスクには、Blu−ray(登録商標)、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等が挙げられる。光磁気記録媒体には、MO(Magneto-Optical disk)等が挙げられる。
Further, the present invention may be a combination of any two or more configurations (features) of the above-described embodiments.
The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions of the control device 10 is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic storage device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic storage device include a hard disk drive, a flexible disk (FD), and a magnetic tape. Examples of the optical disc include Blu-ray (registered trademark), DVD (Digital Versatile Disc), DVD-RAM, CD-ROM (Compact Disc Read Only Memory), CD-R (Recordable) / RW (ReWritable), and the like. Examples of the magneto-optical recording medium include an MO (Magneto-Optical disk).
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROM等の可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When distributing the program, for example, a portable recording medium such as a DVD or a CD-ROM in which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time a program is transferred from a server computer connected via a network, the computer can sequentially execute processing according to the received program.
また、上記の処理機能の少なくとも一部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)等の電子回路で実現することもできる。 Further, at least a part of the above processing functions can be realized by an electronic circuit such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device).
1 表示装置
10 制御装置
11 傾き検出部
11a 前処理部
11b 識別部
11c、11d 検出部
12 決定部
13 指示部
20 撮像装置
21、22、23 画像
31、32、33 モータ
40 モニタ
200 眼鏡
201 眼鏡特徴部
202、203、204 特徴部分
DESCRIPTION OF SYMBOLS 1 Display apparatus 10 Control apparatus 11
Claims (6)
前記検出部により検出された角度が0°に近づくように画像を表示するモニタの回転角度を決定する決定部と、
を有することを特徴とする表示装置。 A detection unit for detecting a tilt angle of the viewer's face from a detection area of the viewer's face included in the image captured by the imaging device;
A determination unit that determines a rotation angle of a monitor that displays an image so that the angle detected by the detection unit approaches 0 °;
A display device comprising:
撮像装置により撮像された画像に含まれる視聴者の顔の検出領域から視聴者の顔の傾き角度を検出し、
検出された角度が0°に近づくように画像を表示するモニタの回転角度を決定する、
ことを特徴とする制御方法。 Computer
Detecting the tilt angle of the viewer's face from the detection area of the viewer's face included in the image captured by the imaging device;
Determining the rotation angle of the monitor that displays the image so that the detected angle approaches 0 °;
A control method characterized by that.
撮像装置により撮像された画像に含まれる視聴者の顔の検出領域から視聴者の顔の傾き角度を検出し、
検出された角度が0°に近づくように画像を表示するモニタの回転角度を決定する、
処理を実行させることを特徴とするプログラム。 On the computer,
Detecting the tilt angle of the viewer's face from the detection area of the viewer's face included in the image captured by the imaging device;
Determining the rotation angle of the monitor that displays the image so that the detected angle approaches 0 °;
A program characterized by causing processing to be executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012081014A JP2013211714A (en) | 2012-03-30 | 2012-03-30 | Display device, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012081014A JP2013211714A (en) | 2012-03-30 | 2012-03-30 | Display device, control method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013211714A true JP2013211714A (en) | 2013-10-10 |
Family
ID=49529193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012081014A Pending JP2013211714A (en) | 2012-03-30 | 2012-03-30 | Display device, control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013211714A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022511987A (en) * | 2019-04-26 | 2022-02-01 | サムスン エレクトロニクス カンパニー リミテッド | Display device and its control method |
-
2012
- 2012-03-30 JP JP2012081014A patent/JP2013211714A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022511987A (en) * | 2019-04-26 | 2022-02-01 | サムスン エレクトロニクス カンパニー リミテッド | Display device and its control method |
JP7041792B2 (en) | 2019-04-26 | 2022-03-24 | サムスン エレクトロニクス カンパニー リミテッド | Display device and its control method |
US11601615B2 (en) | 2019-04-26 | 2023-03-07 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11893689B2 (en) | Automated three dimensional model generation | |
US9311883B2 (en) | Recalibration of a flexible mixed reality device | |
CN111198608B (en) | Information prompting method and device, terminal equipment and computer readable storage medium | |
JP6723814B2 (en) | Information processing apparatus, control method thereof, program, and storage medium | |
CN104182114A (en) | Method and system for adjusting image display direction of mobile equipment | |
EP3633606B1 (en) | Information processing device, information processing method, and program | |
JP6123694B2 (en) | Information processing apparatus, information processing method, and program | |
US11011140B2 (en) | Image rendering method and apparatus, and VR device | |
WO2017187694A1 (en) | Region of interest image generating device | |
WO2018098862A1 (en) | Gesture recognition method and device for virtual reality apparatus, and virtual reality apparatus | |
US10254893B2 (en) | Operating apparatus, control method therefor, and storage medium storing program | |
JP2012208705A (en) | Image operation apparatus, image operation method and program | |
WO2013178151A1 (en) | Screen turnover method and device, and mobile terminal | |
GB2530150A (en) | Information processing apparatus for detecting object from image, method for controlling the apparatus, and storage medium | |
US20190369807A1 (en) | Information processing device, information processing method, and program | |
JP2017084307A (en) | Information processing device, control method therefor, program, and recording medium | |
JP2013211714A (en) | Display device, control method, and program | |
CN112308981A (en) | Image processing method, image processing device, electronic equipment and storage medium | |
JP2018063555A (en) | Information processing device, information processing method, and program | |
WO2020095400A1 (en) | Characteristic point extraction device, characteristic point extraction method, and program storage medium | |
JP2016139396A (en) | User interface device, method and program | |
JP2007241478A (en) | Image processor, control method for image processor and program | |
JP2020086844A (en) | Image processing system, image processing method, and program | |
EP4227732A1 (en) | Method for head image recording and corresponding mobile device | |
US20230224451A1 (en) | Information processing apparatus, information processing method, and program |