JP2013118484A - Display direction control apparatus, display direction control method, display direction control program and video display device - Google Patents

Display direction control apparatus, display direction control method, display direction control program and video display device Download PDF

Info

Publication number
JP2013118484A
JP2013118484A JP2011264698A JP2011264698A JP2013118484A JP 2013118484 A JP2013118484 A JP 2013118484A JP 2011264698 A JP2011264698 A JP 2011264698A JP 2011264698 A JP2011264698 A JP 2011264698A JP 2013118484 A JP2013118484 A JP 2013118484A
Authority
JP
Japan
Prior art keywords
person
direction control
region
detected
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011264698A
Other languages
Japanese (ja)
Other versions
JP5843590B2 (en
Inventor
Takashi Shinohara
隆 篠原
寛明 ▲高▼橋
Hiroaki Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011264698A priority Critical patent/JP5843590B2/en
Publication of JP2013118484A publication Critical patent/JP2013118484A/en
Application granted granted Critical
Publication of JP5843590B2 publication Critical patent/JP5843590B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a display direction control apparatus capable of reducing a throughput for detecting the position of a person from a captured image.SOLUTION: A display direction control apparatus comprises: an image capturing section 41 which captures an image obtained by imaging the front of a display screen S; a region determining section 42 which determines a region subjected to detection of the position of a person and a region not subjected to the detection regarding the captured image; a person detecting section 43 which detects the position of the person from the region subjected to the detection in the captured image; a person estimating section 44 which estimates the position of the person based on past detection results of the person detection section 43 regarding the region not subjected to the detection in the captured image; and a control section 45 which controls a direction of the display screen S based on the detected position of the person and the estimated position of the person.

Description

本発明は、表示方向制御装置、表示方向制御方法、表示方向制御プログラム、および映像表示装置に関する。   The present invention relates to a display direction control device, a display direction control method, a display direction control program, and a video display device.

従来のテレビジョン受像機として、撮像カメラなどを用いて、映像を表示する映像表示部の前面側の画像を撮像し、取得された画像に含まれる顔画像を識別し、識別された顔画像の位置に画面方向が向くように映像表示部をモータ付きの回転スタンド(スイーベルスタンド)により回転させるものがある(例えば、特許文献1参照)。   As a conventional television receiver, an imaging camera or the like is used to capture an image on the front side of a video display unit that displays video, identify a facial image included in the acquired image, and identify the identified facial image. Some video display units are rotated by a rotating stand with a motor (a swivel stand) so that the screen direction faces the position (see, for example, Patent Document 1).

特許文献1では、テレビジョン受像機は、撮像カメラにより定期的に画像を取り込み、当該画像内の顔画像を識別し、識別された顔画像の位置が画像の中心エリアに来るように回転スタンドを制御する。また、複数の顔画像が識別された場合には、テレビジョン受像機は、例えば、複数の顔画像が存在する領域の中心位置を顔画像位置に決定し、当該顔画像位置が画像の中心エリアに来るように回転スタンドを制御する。   In Patent Document 1, a television receiver periodically captures an image with an imaging camera, identifies a face image in the image, and sets a rotating stand so that the position of the identified face image is in the center area of the image. Control. When a plurality of face images are identified, the television receiver determines, for example, the center position of the area where the plurality of face images exist as the face image position, and the face image position is the center area of the image. Control the rotating stand to come to.

特開2009−296521号公報JP 2009-296521 A 米国特許出願公開第2002/0102024号明細書US Patent Application Publication No. 2002/0102024

しかし、特許文献1に記載された技術では、画像内の顔画像の識別に多くの処理量を要する。   However, the technique described in Patent Document 1 requires a large amount of processing to identify a face image in an image.

本発明は、撮像された画像から人物の位置を検出するための処理量を低減できる表示方向制御装置、表示方向制御方法、表示方向制御プログラム、および映像表示装置を提供することを目的とする。   An object of the present invention is to provide a display direction control device, a display direction control method, a display direction control program, and a video display device that can reduce the amount of processing for detecting the position of a person from a captured image.

本発明に係る表示方向制御装置は、
表示画面の前方が撮像された画像を取得する画像取得手段と、
前記取得された画像について、人物の位置の検出対象とする領域と検出対象としない領域とを決定する領域決定手段と、
前記取得された画像のうち前記検出対象とする領域から人物の位置を検出する人物検出手段と、
前記取得された画像のうち前記検出対象としない領域について、前記人物検出手段の過去の検出結果に基づいて人物の位置を推定する人物推定手段と、
前記検出された人物の位置と前記推定された人物の位置とに基づいて、前記表示画面の向きを制御する制御手段と、
を備えることを特徴とする。
The display direction control device according to the present invention is:
Image acquisition means for acquiring an image obtained by imaging the front of the display screen;
A region determining means for determining a region to be detected for the position of a person and a region not to be detected for the acquired image;
Person detecting means for detecting the position of a person from the area to be detected in the acquired image;
A person estimation unit that estimates a position of a person based on a past detection result of the person detection unit for a region that is not the detection target in the acquired image;
Control means for controlling the orientation of the display screen based on the detected position of the person and the estimated position of the person;
It is characterized by providing.

また、本発明に係る映像表示装置は、
映像を表示する表示画面を有する表示部と、
前記表示画面の前方を撮像して画像を取得する撮像装置と、
前記表示部を回転可能に支持する回転スタンドと、
前記取得された画像について、人物の位置の検出対象とする領域と検出対象としない領域とを決定する領域決定手段と、
前記取得された画像のうち前記検出対象とする領域から人物の位置を検出する人物検出手段と、
前記取得された画像のうち前記検出対象としない領域について、前記人物検出手段の過去の検出結果に基づいて人物の位置を推定する人物推定手段と、
前記検出された人物の位置と前記推定された人物の位置とに基づいて、前記回転スタンドによる前記表示部の回転を制御することにより、前記表示画面の向きを制御する制御手段と、
を備えることを特徴とする。
Moreover, the video display device according to the present invention includes:
A display unit having a display screen for displaying video;
An imaging device that images the front of the display screen to acquire an image;
A rotating stand that rotatably supports the display unit;
A region determining means for determining a region to be detected for the position of a person and a region not to be detected for the acquired image;
Person detecting means for detecting the position of a person from the area to be detected in the acquired image;
A person estimation unit that estimates a position of a person based on a past detection result of the person detection unit for a region that is not the detection target in the acquired image;
Control means for controlling the orientation of the display screen by controlling the rotation of the display unit by the rotary stand based on the detected position of the person and the estimated position of the person;
It is characterized by providing.

また、本発明に係る表示方向制御方法は、
表示画面の前方が撮像された画像を取得する画像取得ステップと、
前記取得された画像について、人物の位置の検出対象とする領域と検出対象としない領域とを決定する領域決定ステップと、
前記取得された画像のうち前記検出対象とする領域から人物の位置を検出する人物検出ステップと、
前記取得された画像のうち前記検出対象としない領域について、前記人物検出ステップの過去の検出結果に基づいて人物の位置を推定する人物推定ステップと、
前記検出された人物の位置と前記推定された人物の位置とに基づいて、前記表示画面の向きを制御する制御ステップと、
を有することを特徴とする。
Further, the display direction control method according to the present invention includes:
An image acquisition step of acquiring an image in which the front of the display screen is captured;
An area determining step for determining an area to be detected for the position of a person and an area not to be detected for the acquired image;
A person detecting step of detecting a position of a person from the area to be detected in the acquired image;
A person estimation step for estimating a position of a person based on a past detection result of the person detection step for a region not to be detected in the acquired image;
A control step for controlling the orientation of the display screen based on the detected position of the person and the estimated position of the person;
It is characterized by having.

また、本発明に係る表示方向制御プログラムは、
表示画面の前方が撮像された画像を取得する画像取得ステップと、
前記取得された画像について、人物の位置の検出対象とする領域と検出対象としない領域とを決定する領域決定ステップと、
前記取得された画像のうち前記検出対象とする領域から人物の位置を検出する人物検出ステップと、
前記取得された画像のうち前記検出対象としない領域について、前記人物検出ステップの過去の検出結果に基づいて人物の位置を推定する人物推定ステップと、
前記検出された人物の位置と前記推定された人物の位置とに基づいて、前記表示画面の向きを制御する制御ステップと、
をコンピュータに実行させることを特徴とする。
Further, the display direction control program according to the present invention includes:
An image acquisition step of acquiring an image in which the front of the display screen is captured;
An area determining step for determining an area to be detected for the position of a person and an area not to be detected for the acquired image;
A person detecting step of detecting a position of a person from the area to be detected in the acquired image;
A person estimation step for estimating a position of a person based on a past detection result of the person detection step for a region not to be detected in the acquired image;
A control step for controlling the orientation of the display screen based on the detected position of the person and the estimated position of the person;
Is executed by a computer.

本発明によれば、撮像された画像から人物の位置を検出するための処理量を低減できる。   According to the present invention, the processing amount for detecting the position of a person from a captured image can be reduced.

実施の形態1に係る映像表示装置の構成を示すブロック図である。1 is a block diagram showing a configuration of a video display device according to Embodiment 1. FIG. 実施の形態1に係る映像表示装置の構成を示す概略正面図である。1 is a schematic front view showing a configuration of a video display device according to Embodiment 1. FIG. 表示画面の回転を説明するための図である。It is a figure for demonstrating rotation of a display screen. 実施の形態1に係る表示方向制御装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a display direction control device according to Embodiment 1. FIG. 表示画面の回転方向の決定を説明するための図である。It is a figure for demonstrating determination of the rotation direction of a display screen. 表示画面の角度位置および人物の角度位置を説明するための図である。It is a figure for demonstrating the angle position of a display screen, and the angle position of a person. 表示画面の回転角度を説明するための図である。It is a figure for demonstrating the rotation angle of a display screen. 表示画面が初期位置にあるときの撮像装置の撮像範囲を示す図である。It is a figure which shows the imaging range of an imaging device when a display screen exists in an initial position. 図8の状態において撮像された画像を示す図である。It is a figure which shows the image imaged in the state of FIG. 表示画面が図8の状態から角度θだけ回転した後の撮像装置の撮像範囲を示す図である。It is a figure which shows the imaging range of an imaging device after a display screen rotated only angle (theta) from the state of FIG. 図10の状態において撮像された画像を示す図である。It is a figure which shows the image imaged in the state of FIG. 実施の形態1に係る表示方向制御装置の処理の手順を示すフローチャートである。4 is a flowchart illustrating a processing procedure of the display direction control device according to the first embodiment. 表示画面の目標の角度位置の決定を説明するための図である。It is a figure for demonstrating determination of the target angular position of a display screen. 表示画面の目標の角度位置の決定を説明するための図である。It is a figure for demonstrating determination of the target angular position of a display screen. 表示画面の目標の角度位置の決定を説明するための図である。It is a figure for demonstrating determination of the target angular position of a display screen. 過去複数回の検出結果から人物の位置を推定する際の処理を説明するための図である。It is a figure for demonstrating the process at the time of estimating the position of a person from the detection result of the past several times. 人物の角度位置の算出を説明するための図である。It is a figure for demonstrating calculation of the angle position of a person.

以下、本発明の実施の形態を図面に従って説明する。
実施の形態1.
まず、実施の形態1の映像表示装置の構成を説明する。図1は、実施の形態1に係る映像表示装置100の構成を示すブロック図である。図2は、実施の形態1に係る映像表示装置100の構成を示す概略正面図である。この映像表示装置100は、映像を表示する装置であり、例えばテレビジョン受像機である。また、映像表示装置100は、表示画面の前方が撮像された画像から人物の位置を検出し、人物の位置に基づいて表示画面の向きを制御するものである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
Embodiment 1 FIG.
First, the configuration of the video display device according to the first embodiment will be described. FIG. 1 is a block diagram illustrating a configuration of a video display apparatus 100 according to the first embodiment. FIG. 2 is a schematic front view showing the configuration of the video display apparatus 100 according to the first embodiment. The video display device 100 is a device that displays video, for example, a television receiver. The video display device 100 detects the position of a person from an image obtained by capturing the front of the display screen, and controls the orientation of the display screen based on the position of the person.

図1において、映像表示装置100は、表示部10、回転スタンド20、撮像装置30、および表示方向制御装置(以下、「制御装置」と称す)40を備える。   In FIG. 1, the video display device 100 includes a display unit 10, a rotary stand 20, an imaging device 30, and a display direction control device (hereinafter referred to as “control device”) 40.

表示部10は、映像を表示する表示画面Sを有し、例えば液晶ディスプレイである。
回転スタンド20は、表示部10を回転可能に支持するスタンドである。具体的には、回転スタンド20は、表示画面Sを水平方向に所定の角度範囲で回転可能に支持する。例えば、図3に示されるように、表示部10の上面視において、表示画面Sは、実線で示される初期位置から、左回り(反時計回り、矢印X1方向)に最大回転角度(例えば30°)だけ回転可能であり、右回り(時計回り、矢印X2方向)に最大回転角度(例えば30°)だけ回転可能である。なお、図3において、矢印の方向D0は、初期位置にある表示画面Sの正面方向、または表示画面Sが初期位置にあるときの撮像装置30の撮像方向を示す。
The display unit 10 includes a display screen S that displays video, and is a liquid crystal display, for example.
The rotary stand 20 is a stand that rotatably supports the display unit 10. Specifically, the rotary stand 20 supports the display screen S so as to be rotatable in a predetermined angular range in the horizontal direction. For example, as shown in FIG. 3, when the display unit 10 is viewed from above, the display screen S is rotated counterclockwise (counterclockwise, arrow X1 direction) from the initial position indicated by the solid line to a maximum rotation angle (for example, 30 °). ) And can be rotated clockwise (clockwise, arrow X2 direction) by a maximum rotation angle (for example, 30 °). In FIG. 3, the arrow direction D0 indicates the front direction of the display screen S at the initial position or the imaging direction of the imaging device 30 when the display screen S is at the initial position.

また、回転スタンド20は、表示画面Sを略鉛直軸まわりに所定の角度範囲で回転させる駆動部を備える。駆動部は、例えばモータや歯車などで構成される。駆動部による表示画面Sの回転(例えば回転の開始または停止や回転方向)は、制御装置40によって制御される。回転スタンド20は、ロータリエンコーダなど、表示画面Sが向いている方向、表示画面Sの角度位置、または表示画面Sの回転角度を取得する手段を備えていてもよい。   The rotary stand 20 includes a drive unit that rotates the display screen S around a substantially vertical axis within a predetermined angle range. The drive unit is configured by, for example, a motor or a gear. The rotation of the display screen S by the drive unit (for example, the start or stop of rotation or the rotation direction) is controlled by the control device 40. The rotary stand 20 may include a rotary encoder or the like that acquires a direction in which the display screen S is facing, an angular position of the display screen S, or a rotation angle of the display screen S.

撮像装置30は、表示画面Sの前方を撮像して画像を取得し、取得された画像(具体的にはデジタル画像データ)を制御装置40に出力する。具体的には、撮像装置30は、表示画面Sの前方を向くように表示部10に固定されている。例えば、撮像装置30は、表示部10の左右方向の中心に設置される。撮像装置30による画像の取得および撮像された画像の制御装置40への出力は、例えば、毎秒30回などといった一定の時間ごとに繰り返し実施される。   The imaging device 30 captures the front of the display screen S to acquire an image, and outputs the acquired image (specifically, digital image data) to the control device 40. Specifically, the imaging device 30 is fixed to the display unit 10 so as to face the front of the display screen S. For example, the imaging device 30 is installed at the center in the left-right direction of the display unit 10. Acquisition of an image by the imaging device 30 and output of the captured image to the control device 40 are repeatedly performed at regular intervals, for example, 30 times per second.

撮像装置30は、CCD(Charge Coupled Device)素子およびレンズ等により構成され、例えば、水平解像度640ピクセル、垂直解像度480ピクセルのグレースケール画像を取得する。ただし、撮像装置30は、CMOS(Complementary Metal Oxide Semiconductor)素子など、CCD素子以外の撮像素子を利用するものでもよい。また、撮像装置30は、グレースケール画像ではなく、カラー画像を取得するものでもよい。また、画像の解像度も、640×480ピクセルに限られず、人物の検出が可能である限りは、より高い解像度でも、より低い解像度でもよい。なお、撮像装置30の画角によるが、一般的に解像度が高いほど、遠くの人物を検出することができる。   The imaging device 30 includes a CCD (Charge Coupled Device) element, a lens, and the like, and acquires, for example, a grayscale image having a horizontal resolution of 640 pixels and a vertical resolution of 480 pixels. However, the imaging device 30 may use an imaging element other than a CCD element, such as a CMOS (Complementary Metal Oxide Semiconductor) element. Further, the imaging device 30 may acquire a color image instead of a grayscale image. Further, the resolution of the image is not limited to 640 × 480 pixels, and may be higher or lower as long as a person can be detected. Note that, depending on the angle of view of the imaging device 30, generally, the higher the resolution, the farther a person can be detected.

制御装置40は、撮像装置30により撮像された画像から人物の位置を検出し、当該人物の位置に基づいて、回転スタンド20による表示部10の回転を制御することにより、表示画面Sの向きを制御する。具体的には、制御装置40は、撮像装置30により取得された画像に基づき、表示画面Sに表示される映像を視聴している視聴者の位置を検出し、当該視聴者の位置から表示画面Sが見やすい方向を向くように、回転スタンド20を制御して表示画面Sを回転させる。本例では、制御装置40は、表示画面Sを視聴している視聴者の位置に応じて、表示画面Sを回転させる回転方向を決定し、決定された回転方向に表示画面Sが回転するように回転スタンド20を駆動する。   The control device 40 detects the position of the person from the image captured by the imaging apparatus 30 and controls the rotation of the display unit 10 by the rotary stand 20 based on the position of the person, thereby changing the orientation of the display screen S. Control. Specifically, the control device 40 detects the position of the viewer viewing the video displayed on the display screen S based on the image acquired by the imaging device 30, and displays the display screen from the position of the viewer. The display screen S is rotated by controlling the rotary stand 20 so that S faces in an easy-to-see direction. In this example, the control device 40 determines the rotation direction for rotating the display screen S according to the position of the viewer who is viewing the display screen S, and the display screen S is rotated in the determined rotation direction. The rotary stand 20 is driven.

次に、実施の形態1の表示方向制御装置40の構成を説明する。図4は、実施の形態1に係る表示方向制御装置40の構成を示すブロック図である。   Next, the configuration of the display direction control device 40 of Embodiment 1 will be described. FIG. 4 is a block diagram illustrating a configuration of the display direction control device 40 according to the first embodiment.

図4において、制御装置40は、画像取得部41、領域決定部42、人物検出部43、人物推定部44、制御部45、および回転量判定部46を有する。   In FIG. 4, the control device 40 includes an image acquisition unit 41, a region determination unit 42, a person detection unit 43, a person estimation unit 44, a control unit 45, and a rotation amount determination unit 46.

画像取得部41は、表示画面Sの前方が撮像された画像を取得する。具体的には、画像取得部41は、撮像装置30により撮像された画像を取得する。そして、画像取得部41は、撮像装置30の解像度や当該映像表示装置100が使用される環境に基づく撮像された画像の品質に応じて、時間方向または空間方向に低域通過フィルタ処理を施し、画像のノイズ成分を除去する。そして、画像取得部41は、ノイズが除去された画像(以下、「撮像画像」と称す)を領域決定部42に出力する。   The image acquisition unit 41 acquires an image in which the front of the display screen S is captured. Specifically, the image acquisition unit 41 acquires an image captured by the imaging device 30. And the image acquisition part 41 performs a low-pass filter process in a time direction or a space direction according to the quality of the imaged image based on the resolution of the imaging device 30 and the environment in which the video display device 100 is used, Remove noise components from the image. Then, the image acquisition unit 41 outputs an image from which noise has been removed (hereinafter referred to as “captured image”) to the region determination unit 42.

領域決定部42は、画像取得部41により取得された撮像画像について、人物の位置の検出対象とする領域(以下、「検出対象領域」と称す)と、人物の位置の検出対象としない領域(以下、「非検出対象領域」と称す)とを決定する。具体的には、領域決定部42は、撮像画像のうち、人物検出部43の過去の検出結果から人物の位置を推定可能な領域、または過去に人物検出が行われた領域を非検出対象領域に決定し、それ以外の領域を検出対象領域に決定する。本例では、領域決定部42は、撮像画像のうち、前回取得された画像に含まれる領域(すなわち前回撮像された領域)を非検出対象領域に決定し、それ以外の領域(すなわち前回に対して新たに撮像された領域)を検出対象領域に決定する。具体的には、領域決定部42は、前回取得された撮像画像の撮像時(以下、「前回の撮像時」と称す)から今回取得された撮像画像の撮像時(以下、「今回の撮像時」と称す)までの表示画面Sの回転角度(または回転量)に基づいて、前回取得された画像に含まれる領域を特定し、当該領域を非検出対象領域に決定し、それ以外の領域を検出対象領域に決定する。上記表示画面Sの回転角度は、後述の回転量判定部46から領域決定部42に供給される。領域決定部42は、例えば、撮像画像のうち検出対象領域の画像を検出対象画像として人物検出部43に出力する。または、領域決定部42は、撮像画像と決定結果とを人物検出部43に出力する。   The area determination unit 42 includes, for the captured image acquired by the image acquisition unit 41, an area that is a detection target of a person position (hereinafter referred to as “detection target area”) and an area that is not a detection target of a person position ( Hereinafter, it is referred to as “non-detection target region”). Specifically, the region determination unit 42 selects a region in which the position of the person can be estimated from the past detection result of the person detection unit 43 in the captured image, or a region in which person detection has been performed in the past, as a non-detection target region. The other area is determined as the detection target area. In this example, the region determination unit 42 determines a region included in the previously acquired image (that is, the region captured last time) as a non-detection target region among the captured images, and the other region (that is, the previous image). The newly imaged area) is determined as the detection target area. Specifically, the area determination unit 42 captures a captured image acquired this time from the previous captured image capture (hereinafter referred to as “previous capture”) (hereinafter referred to as “current capture”). The area included in the previously acquired image is specified based on the rotation angle (or the rotation amount) of the display screen S until “)”, the area is determined as a non-detection target area, and the other areas are determined. Determine the detection target area. The rotation angle of the display screen S is supplied from the rotation amount determination unit 46 described later to the region determination unit 42. For example, the region determination unit 42 outputs an image of the detection target region in the captured image to the person detection unit 43 as a detection target image. Alternatively, the region determination unit 42 outputs the captured image and the determination result to the person detection unit 43.

人物検出部43は、画像取得部41により取得された撮像画像のうち、領域決定部42により検出対象領域に決定された領域から人物の位置を検出する。例えば、人物検出部43は、領域決定部42から検出対象画像を受け、当該検出対象画像から人物の位置を検出する。または、領域決定部42は、領域決定部42から撮像画像と決定結果とを受け、当該撮像画像のうち当該決定結果により示される検出対象領域から人物の位置を検出する。   The person detection unit 43 detects the position of the person from the region determined as the detection target region by the region determination unit 42 in the captured image acquired by the image acquisition unit 41. For example, the person detection unit 43 receives the detection target image from the region determination unit 42 and detects the position of the person from the detection target image. Alternatively, the region determination unit 42 receives the captured image and the determination result from the region determination unit 42 and detects the position of the person from the detection target region indicated by the determination result in the captured image.

人物検出部43における人物の検出の手法は特に限定されないが、例えば、特許文献2等に開示されているビオラ−ジョーンズ法と呼ばれる方式を用いることができる。ビオラ−ジョーンズ法は、要約すると、画像内における小領域の位置や大きさを変えながら画像内に小領域を設定し、当該小領域から特徴量を抽出し、識別器を利用して、当該小領域が顔であるか否かを判別するものである。このビオラ−ジョーンズ法によれば、例えば撮像画像における人物の顔の中心位置を検出することができ、同時に、撮像画像における顔の大きさや、おおよその顔の向きも算出することができる。   A method for detecting a person in the person detection unit 43 is not particularly limited, and for example, a method called a viola-Jones method disclosed in Patent Document 2 or the like can be used. In summary, the Viola-Jones method sets a small area in an image while changing the position and size of the small area in the image, extracts a feature amount from the small area, and uses the discriminator to extract the small area. It is determined whether or not the area is a face. According to this Viola-Jones method, for example, the center position of a human face in a captured image can be detected, and at the same time, the size of the face in the captured image and the approximate orientation of the face can be calculated.

本例では、人物検出部43は、撮像画像における人物の位置、顔の大きさ、および顔の向きなどの情報を検出する。また、人物検出部43は、複数の人物が検出された場合には、検出された複数の人物の各々について、撮像画像における当該人物の位置、顔の大きさ、および顔の向きを検出する。そして、人物検出部43は、検出された情報に基づき、表示画面Sを視聴している人物(すなわち視聴者)の位置を特定する。具体的には、人物検出部43は、検出された人物のそれぞれについて、当該人物の顔の大きさと向きを重み付け処理して属性情報を求め、当該属性情報を閾値処理することにより、当該人物が表示画面Sを視聴しているかどうかを判定する。例えば、人物検出部43は、人物の顔の大きさと向きとを所定の重みにより重み付け加算して属性値を算出し、当該属性値が所定の閾値以上であれば、当該人物は視聴者であると判定する。そして、人物検出部43は、視聴者であると判定されたすべての人物について、当該人物の位置を示す位置情報と属性情報とを制御部45に出力する。ここで、人物の位置情報は、例えば、撮像画像の座標系における人物の位置の座標(例えば顔の中心座標)である。   In this example, the person detection unit 43 detects information such as the position of the person, the size of the face, and the orientation of the face in the captured image. In addition, when a plurality of persons are detected, the person detection unit 43 detects the position of the person, the size of the face, and the face direction in the captured image for each of the detected plurality of persons. Then, based on the detected information, the person detection unit 43 specifies the position of the person viewing the display screen S (that is, the viewer). Specifically, for each detected person, the person detection unit 43 obtains attribute information by weighting the size and orientation of the person's face, and by performing threshold processing on the attribute information, It is determined whether or not the display screen S is viewed. For example, the person detection unit 43 calculates the attribute value by weighting and adding the face size and orientation of the person with a predetermined weight, and if the attribute value is equal to or greater than a predetermined threshold, the person is a viewer. Is determined. Then, the person detection unit 43 outputs position information and attribute information indicating the position of the person to all the persons determined to be viewers to the control unit 45. Here, the position information of the person is, for example, the coordinates of the position of the person in the coordinate system of the captured image (for example, the center coordinates of the face).

また、人物検出部43は、画像取得部41により取得された撮像画像のうち、領域決定部42により非検出対象領域に決定された領域については、人物検出部43の過去の検出結果から推定される人物の位置を用いる。具体的には、人物検出部43は、後述の人物推定部44から、過去の検出結果に基づいて推定された人物の位置情報と、当該人物の属性情報とを受け、これらを制御部45に出力する。人物検出部43は、人物検出部43の検出結果と、人物推定部44の推定結果とを合成して、今回取得された撮像画像に対応する人物の位置情報および属性情報を含む情報を生成し、当該情報を制御部45に出力してもよい。   In addition, the person detection unit 43 estimates the region determined as the non-detection target region by the region determination unit 42 among the captured images acquired by the image acquisition unit 41 from the past detection results of the person detection unit 43. The position of the person to be used is used. Specifically, the person detection unit 43 receives the position information of the person estimated based on the past detection results and the attribute information of the person from the person estimation unit 44 described later, and sends them to the control unit 45. Output. The person detection unit 43 combines the detection result of the person detection unit 43 and the estimation result of the person estimation unit 44 to generate information including the position information and attribute information of the person corresponding to the captured image acquired this time. The information may be output to the control unit 45.

なお、人物検出部43は、人物の位置の情報や顔の大きさの情報として、顔の垂直方向の長さや、肩幅、両目間の距離、両目それぞれの位置、頭の頂点の座標など、他の情報を検出してもよい。   In addition, the person detection unit 43 may include other information such as the person's position information and face size information, such as the vertical length of the face, the shoulder width, the distance between both eyes, the position of each eye, and the coordinates of the head vertex. The information may be detected.

人物推定部44は、画像取得部41により取得された撮像画像のうち、領域決定部42により非検出対象領域に決定された領域について、人物検出部43の過去の検出結果に基づいて人物の位置を推定する。具体的には、人物推定部44は、人物検出部43の検出結果を記憶し、人物検出部43の過去の検出結果と、表示画面Sの回転の履歴とに基づいて、人物の位置を推定する。より具体的には、人物推定部44は、人物検出部43の過去の検出結果と、当該過去の撮像時から今回の撮像時までの表示画面Sの回転角度とに基づいて、今回の撮像画像における過去に検出された人物の位置を推定する。本例では、人物推定部44は、後述の回転量判定部46から、前回の撮像時から今回の撮像時までの表示画面Sの回転角度を取得し、前回検出された人物の位置と、取得された回転角度とに基づいて、今回の撮像画像における前回検出された人物の位置を推定する。すなわち、人物推定部44は、今回の撮像画像において、前回検出された人物の位置がどこに移動しているかを推定する。そして、人物推定部44は、推定された人物の位置情報と、当該人物の属性情報とを人物検出部43へ出力する。人物の属性情報としては、例えば過去の検出結果に含まれる属性情報が用いられる。   The person estimation unit 44 determines the position of the person based on the past detection result of the person detection unit 43 for the region determined as the non-detection target region by the region determination unit 42 among the captured images acquired by the image acquisition unit 41. Is estimated. Specifically, the person estimation unit 44 stores the detection result of the person detection unit 43 and estimates the position of the person based on the past detection result of the person detection unit 43 and the rotation history of the display screen S. To do. More specifically, the person estimation unit 44 captures the current captured image based on the past detection result of the person detection unit 43 and the rotation angle of the display screen S from the past capturing time to the current capturing time. The position of the person detected in the past in is estimated. In this example, the person estimation unit 44 acquires the rotation angle of the display screen S from the previous imaging time to the current imaging time from the rotation amount determination unit 46 described later, and acquires the position of the person detected last time and the acquisition. Based on the rotation angle thus determined, the position of the person detected last time in the current captured image is estimated. That is, the person estimation unit 44 estimates where the position of the person detected last time has moved in the current captured image. The person estimation unit 44 then outputs the estimated position information of the person and the attribute information of the person to the person detection unit 43. As the person attribute information, for example, attribute information included in past detection results is used.

制御部45は、人物検出部43により検出された人物の位置と、人物推定部44により推定された人物の位置とに基づいて、表示画面Sの向きを制御する。具体的には、制御部45は、上記人物の位置に基づいて、回転スタンド20による表示部10の回転を制御することにより、表示画面Sの向きを制御する。図4の例では、制御部45は、方向決定部45aと、駆動制御部45bとを有する。   The control unit 45 controls the orientation of the display screen S based on the position of the person detected by the person detection unit 43 and the position of the person estimated by the person estimation unit 44. Specifically, the control unit 45 controls the orientation of the display screen S by controlling the rotation of the display unit 10 by the rotary stand 20 based on the position of the person. In the example of FIG. 4, the control unit 45 includes a direction determination unit 45a and a drive control unit 45b.

方向決定部45aは、人物検出部43からの人物の位置情報および属性情報に基づいて、表示画面Sの回転方向を決定する。具体的には、方向決定部45aは、人物の位置が表示画面Sの正面より左側であれば回転方向を左方向に決定し、右側であれば右方向に決定し、正面であれば回転させないと決定する。例えば、図5に示されるように、撮像画像の領域が3つの領域A1,A2,A3に区切られ、方向決定部45aは、人物の位置が領域A1〜A3のうちどの領域に存在するかによって回転方向を決定する。具体的には、方向決定部45aは、人物の位置が領域A1に含まれれば左方向に決定し、領域A3に含まれれば右方向に決定し、領域A2に含まれれば回転させないと決定する。   The direction determination unit 45 a determines the rotation direction of the display screen S based on the position information and attribute information of the person from the person detection unit 43. Specifically, the direction determination unit 45a determines the rotation direction to the left if the position of the person is on the left side of the front of the display screen S, determines the right direction if the person is on the right, and does not rotate if the position is the front. And decide. For example, as shown in FIG. 5, the area of the captured image is divided into three areas A1, A2, and A3, and the direction determining unit 45a determines whether the position of the person exists in any of the areas A1 to A3. Determine the direction of rotation. Specifically, the direction determination unit 45a determines the left direction if the position of the person is included in the area A1, determines the right direction if it is included in the area A3, and determines not to rotate if the position is included in the area A2. .

また、方向決定部45aは、複数の人物の位置情報および属性情報を受けた場合、すなわち視聴者として複数の人物が検出または推定された場合には、各人物の属性情報に基づいて、複数の人物の中間付近の位置を求め、当該位置に基づいて回転方向を決定する。具体的には、方向決定部45aは、各人物の属性情報を重みとして各人物の位置を加重平均し、得られた位置に基づいて表示画面Sの回転方向を決定する。   In addition, when the position determination unit 45a receives the position information and attribute information of a plurality of persons, that is, when a plurality of persons are detected or estimated as viewers, A position near the middle of the person is obtained, and the rotation direction is determined based on the position. Specifically, the direction determination unit 45a weights and averages the position of each person using the attribute information of each person as a weight, and determines the rotation direction of the display screen S based on the obtained position.

駆動制御部45bは、方向決定部45aにより決定された回転方向に表示画面Sが回転するように、回転スタンド20の回転を駆動制御する。例えば、図3の表示部10の上面視において、駆動制御部45bは、方向決定部45aにより左方向に決定された場合には表示画面Sを左回り(図3の矢印X1の方向)に回転させ、方向決定部45aにより右方向に決定された場合には表示画面Sを右回り(図3の矢印X2の方向)に回転させる。   The drive control unit 45b drives and controls the rotation of the rotary stand 20 so that the display screen S rotates in the rotation direction determined by the direction determination unit 45a. For example, in the top view of the display unit 10 in FIG. 3, the drive control unit 45b rotates the display screen S counterclockwise (in the direction of the arrow X1 in FIG. 3) when the direction determination unit 45a determines the left direction. If the direction determining unit 45a determines the right direction, the display screen S is rotated clockwise (in the direction of the arrow X2 in FIG. 3).

一つの態様では、駆動制御部45bは、決定された回転方向に、所定の角度(例えば、表示画面Sの最大回転角度の数十分の一程度の微小な角度)だけ表示画面Sを回転させる。当該態様では、例えば、人物の位置が図5の領域A2に入るまで、所定の角度だけ表示画面Sを回転させる処理が繰り返され、これにより表示画面Sが人物の方向を向くように回転する。ただし、駆動制御部45は、方向決定部45aから回転方向の指示を受けた場合、次の回転方向の指示を受けるまで、指示された回転方向に表示画面Sを回転させ続けてもよい。   In one aspect, the drive control unit 45b rotates the display screen S in the determined rotation direction by a predetermined angle (for example, a minute angle that is a few tenths of the maximum rotation angle of the display screen S). . In this aspect, for example, the process of rotating the display screen S by a predetermined angle is repeated until the position of the person enters the area A2 in FIG. 5, thereby rotating the display screen S to face the person. However, when the drive control unit 45 receives an instruction for the rotation direction from the direction determination unit 45a, the drive control unit 45 may continue to rotate the display screen S in the specified rotation direction until an instruction for the next rotation direction is received.

回転量判定部46は、撮像装置30により撮像が行われた場合、または画像取得部41により画像が取得された場合に、前回の撮像時から今回の撮像時までの表示画面Sの回転角度(または回転量)を取得し、領域決定部42および人物推定部44に出力する。   When the imaging device 30 captures an image, or when the image acquisition unit 41 acquires an image, the rotation amount determination unit 46 rotates the display screen S from the previous imaging time to the current imaging time ( Or the rotation amount) is obtained and output to the region determination unit 42 and the person estimation unit 44.

具体的には、駆動制御部45bは、撮像装置30により撮像が行われるたびに、当該撮像時における表示画面Sの角度位置(または回転位置)を回転量判定部46に出力し、回転量判定部46は、今回の撮像時における表示画面Sの角度位置から前回の撮像時における表示画面Sの角度位置を減算することにより、表示画面Sの回転角度を算出する。   Specifically, every time imaging is performed by the imaging device 30, the drive control unit 45 b outputs the angular position (or rotational position) of the display screen S at the time of imaging to the rotation amount determination unit 46 to determine the rotation amount. The unit 46 calculates the rotation angle of the display screen S by subtracting the angular position of the display screen S at the previous imaging from the angular position of the display screen S at the current imaging.

図6を参照すると、ある時点における表示画面Sの角度位置は、所定の方向(例えば初期位置にある表示画面Sの正面方向)D0に対する、その時点における表示画面Sの正面方向Dsの角度θsにより表される。そして、回転量判定部46は、図7のように、今回の撮像時における表示画面Sの角度位置θs2から前回の撮像時における表示画面Sの角度位置θs1を減算することにより、表示画面Sの回転角度θ(=θs2−θs1)を算出する。表示画面Sの角度位置は、例えば、回転スタンド20のロータリエンコーダで測定されて駆動制御部45bへ送られてもよいし、回転スタンド20への駆動制御信号に基づいて駆動制御部45bにより計算されてもよい。図7において、矢印Ds(今回)は今回の撮像時における表示画面Sの正面方向を示し、矢印Ds(前回)は前回の撮像時における表示画面Sの正面方向を示す。   Referring to FIG. 6, the angular position of the display screen S at a certain point in time depends on the angle θs of the front direction Ds of the display screen S at that point in time with respect to a predetermined direction (for example, the front direction of the display screen S at the initial position). expressed. Then, as shown in FIG. 7, the rotation amount determination unit 46 subtracts the angular position θs1 of the display screen S at the previous imaging from the angular position θs2 of the display screen S at the time of the current imaging, thereby The rotation angle θ (= θs2−θs1) is calculated. The angular position of the display screen S may be measured by a rotary encoder of the rotary stand 20 and sent to the drive control unit 45b, or calculated by the drive control unit 45b based on a drive control signal to the rotary stand 20. May be. In FIG. 7, an arrow Ds (current) indicates the front direction of the display screen S at the time of current imaging, and an arrow Ds (previous) indicates the front direction of the display screen S at the time of previous imaging.

なお、表示画面Sの角度位置θsや回転角度θは、反時計回りを正、時計回りを負とする。以降の他の角度についても同様である。   Note that the angular position θs and the rotation angle θ of the display screen S are positive in the counterclockwise direction and negative in the clockwise direction. The same applies to other angles thereafter.

次に、実施の形態1に係る映像表示装置100の動作の一例を説明する。
図8は、映像表示装置100の上面視における、表示画面Sが初期位置にあるときの撮像装置30の撮像範囲を示す図である。図8には、撮像装置30の撮像面31、画角α、焦点距離f、撮像範囲の右端の方向A、および左端の方向Bが示されている。また、図8において、撮像範囲内の左側に人物Pが存在する。
Next, an example of the operation of the video display apparatus 100 according to Embodiment 1 will be described.
FIG. 8 is a diagram illustrating an imaging range of the imaging device 30 when the display screen S is in the initial position when the video display device 100 is viewed from above. FIG. 8 shows an imaging surface 31, an angle of view α, a focal length f, a right end direction A, and a left end direction B of the image pickup apparatus 30. In FIG. 8, a person P exists on the left side in the imaging range.

図8に示される状態において、映像表示装置100が起動したとする。まず、映像表示装置100は、撮像装置30により方向A,B間の領域を撮像し、撮像された画像に画像取得部41でノイズ低減処理を施し、例えば図9のような撮像画像を得る。領域決定部42は、ここでは、初期状態であることから、撮像画像のすべての領域を検出対象領域に決定する。人物検出部43は、撮像画像のすべての領域に対して顔画像の検出を行い、人物Pの顔の大きさと向きの情報を重み付け処理して属性情報を求め、当該属性情報から人物Pが視聴者であると判定し、人物Pの位置情報および属性情報を制御部45に出力する。   Assume that the video display apparatus 100 is activated in the state shown in FIG. First, the video display apparatus 100 captures an area between the directions A and B by the imaging apparatus 30, and performs noise reduction processing on the captured image by the image acquisition unit 41 to obtain, for example, a captured image as illustrated in FIG. Here, the region determination unit 42 determines all regions of the captured image as detection target regions because it is in the initial state. The person detection unit 43 detects a face image for all areas of the captured image, weights the face size and orientation information of the person P to obtain attribute information, and the person P views the attribute P from the attribute information. The position information and attribute information of the person P are output to the control unit 45.

方向決定部45aは、人物Pの位置情報から回転スタンド20の回転方向を決定する。ここでは、方向決定部45aは、人物Pの位置は図5の領域A1に含まれると判定し、回転方向を左方向(図3の矢印X1方向)に決定し、左方向への回転を駆動制御部45bに指示する。   The direction determination unit 45a determines the rotation direction of the rotary stand 20 from the position information of the person P. Here, the direction determination unit 45a determines that the position of the person P is included in the area A1 in FIG. 5, determines the rotation direction to the left (direction of arrow X1 in FIG. 3), and drives the rotation in the left direction. The control unit 45b is instructed.

駆動制御部45bは、方向決定部45aからの指示に従い、回転スタンド20を駆動して、表示画面Sを左方向へ、予め定められた角度θだけ回転させる。これにより、映像表示装置100の上面視において、撮像装置30の撮像範囲は、図10に示される通りとなる。図10には、撮像装置30の撮像面31、撮像範囲の右端の方向A’、左端の方向B’、方向A’,B’に対応する撮像面31上の点a’,b’が示されている。さらに、前回の撮像時における方向A,Bが破線で示されており、方向Bに対応する撮像面31上の点bが示されている。また、図10では、撮像範囲内の略正面に人物Pが存在し、撮像範囲内の左側に人物Qが存在する。図10における人物Pの位置は、図8における人物Pの位置と同じである。すなわち、人物Pは移動していない。   The drive control unit 45b drives the rotary stand 20 according to an instruction from the direction determination unit 45a to rotate the display screen S leftward by a predetermined angle θ. Thereby, in the top view of the video display device 100, the imaging range of the imaging device 30 is as shown in FIG. FIG. 10 shows the imaging surface 31 of the imaging device 30, the right end direction A ′ of the imaging range, the left end direction B ′, and the points a ′ and b ′ on the imaging surface 31 corresponding to the directions A ′ and B ′. Has been. Furthermore, directions A and B at the time of previous imaging are indicated by broken lines, and a point b on the imaging surface 31 corresponding to direction B is indicated. In FIG. 10, the person P exists substantially in front of the imaging range, and the person Q exists on the left side of the imaging range. The position of the person P in FIG. 10 is the same as the position of the person P in FIG. That is, the person P is not moving.

図10に示される状態において、前回の撮像から一定の時間が経過したことをトリガとして、次の処理が開始される。まず、撮像装置30により方向A’,B’間の領域が撮像され、撮像された画像にノイズ低減処理が施され、例えば図11のような撮像画像が得られる。領域決定部42は、当該撮像画像を、検出対象領域と非検出対象領域とに分類する。具体的には、領域決定部42は、回転量判定部46から前回の撮像時から今回の撮像時までの表示画面Sの回転角度θを受け、当該回転角度θに基づいて、今回の撮像画像における前回の撮像範囲の左端の位置(図11の位置BI)を算出し、当該位置を基準として検出対象領域と非検出対象領域との分類を行う。   In the state shown in FIG. 10, the next process is started with a certain time elapsed since the previous imaging. First, an area between the directions A ′ and B ′ is imaged by the imaging device 30, and noise reduction processing is performed on the captured image to obtain a captured image as illustrated in FIG. The area determination unit 42 classifies the captured image into a detection target area and a non-detection target area. Specifically, the region determining unit 42 receives the rotation angle θ of the display screen S from the previous imaging time to the current imaging time from the rotation amount determination unit 46, and based on the rotation angle θ, the current captured image The position at the left end (position BI in FIG. 11) of the previous imaging range is calculated, and the detection target area and the non-detection target area are classified based on the position.

具体的には、図10において、線分a’b’の長さは、2・f・tan(α/2)であり、線分a’bの長さは、f・tan(α/2)+f・tan(α/2−θ)である。よって、線分a’bの長さと線分a’b’の長さとの比(a’b/a’b’)は、下記式(1)により表される。
a’b/a’b’={tan(α/2)+tan(α/2−θ)}/{2・tan(α/2)}…(1)
領域決定部42は、上記式(1)を用いて、前回の撮像時における左端方向Bに対応する撮像面31上の点bの位置を求めることができ、さらに、今回の撮像画像における点bに対応する位置(すなわち前回の撮像範囲の左端の位置)BIを求めることができる。
Specifically, in FIG. 10, the length of the line segment a′b ′ is 2 · f · tan (α / 2), and the length of the line segment a′b is f · tan (α / 2). ) + F · tan (α / 2−θ). Therefore, the ratio (a′b / a′b ′) between the length of the line segment a′b and the length of the line segment a′b ′ is expressed by the following formula (1).
a′b / a′b ′ = {tan (α / 2) + tan (α / 2−θ)} / {2 · tan (α / 2)} (1)
Using the above equation (1), the region determination unit 42 can obtain the position of the point b on the imaging surface 31 corresponding to the left end direction B at the previous imaging, and further, the point b in the current captured image (Ie, the leftmost position of the previous imaging range) BI can be obtained.

例えば、撮像画像の水平方向の幅をwとすると、図11の撮像画像において、点bに対応する位置BIは、点a’に対応する位置AI’から水平方向に距離w・{tan(α/2)+tan(α/2−θ)}/{2・tan(α/2)}だけ離れた位置にある。   For example, if the horizontal width of the captured image is w, in the captured image of FIG. 11, the position BI corresponding to the point b is the distance w · {tan (α) from the position AI ′ corresponding to the point a ′ in the horizontal direction. / 2) + tan (α / 2−θ)} / {2 · tan (α / 2)}.

図11に示される撮像画像において、水平方向の位置が位置AI’から位置BIまでの矩形領域R1については、前回の処理における撮像範囲内の領域であり、前回人物検出処理が実施されている。そこで、今回の処理では、領域決定部42は、矩形領域R1を非検出対象領域に分類する。一方、水平方向の位置が点b’に対応する位置BI’から位置BIまでの矩形領域R2については、前回の処理における撮像範囲外の領域であり、前回人物検出処理が実施されていない。そこで、今回の処理では、領域決定部42は、矩形領域R2を検出対象領域に分類する。   In the captured image shown in FIG. 11, a rectangular area R1 whose horizontal position is from position AI 'to position BI is an area within the imaging range in the previous process, and the previous person detection process has been performed. Therefore, in the current process, the region determination unit 42 classifies the rectangular region R1 as a non-detection target region. On the other hand, the rectangular area R2 from the position BI 'to the position BI whose horizontal position corresponds to the point b' is an area outside the imaging range in the previous process, and the previous person detection process has not been performed. Therefore, in the current process, the area determination unit 42 classifies the rectangular area R2 as a detection target area.

人物推定部44は、前回の検出結果における人物Pの位置情報に対して、表示画面Sの回転角度θに応じた幾何学的補正を行い、今回の撮像画像における人物Pの位置情報を得る。これにより、図11の撮像画像のうち矩形領域R1(非検出対象領域)については、人物の位置が推定される。人物推定部44は、今回得られた人物Pの位置情報と、前回の検出結果に含まれる人物Pの属性情報とを人物検出部43に出力する。   The person estimation unit 44 performs geometric correction on the position information of the person P in the previous detection result according to the rotation angle θ of the display screen S, and obtains the position information of the person P in the current captured image. Thereby, the position of a person is estimated about rectangular area R1 (non-detection object area | region) among the captured images of FIG. The person estimation unit 44 outputs the position information of the person P obtained this time and the attribute information of the person P included in the previous detection result to the person detection unit 43.

人物検出部43は、図11の撮像画像のうち矩形領域R2(検出対象領域)について、顔画像検出処理を行い、人物Qの顔の位置、大きさ、および向きを検出し、人物Qの顔の大きさと向きの情報を重み付け処理して属性情報を求め、当該属性情報から人物Qが視聴者であると判定し、人物Qの位置情報および属性情報を得る。そして、人物検出部43は、当該人物Qの位置情報および属性情報と、人物推定部44からの人物Pの位置情報および属性情報とを方向決定部45aに出力する。   The person detection unit 43 performs face image detection processing on the rectangular area R2 (detection target area) in the captured image of FIG. 11 to detect the position, size, and orientation of the face of the person Q, and the face of the person Q Attribute information is obtained by weighting the size and orientation information, and it is determined from the attribute information that the person Q is a viewer, and the position information and attribute information of the person Q are obtained. Then, the person detection unit 43 outputs the position information and attribute information of the person Q and the position information and attribute information of the person P from the person estimation unit 44 to the direction determination unit 45a.

方向決定部45aは、人物Pの属性情報と人物Qの属性情報とを重みとして、人物Pの位置と人物Qの位置とを加重平均し、得られた位置に基づいて表示画面Sの回転方向を決定する。ここでは、加重平均により人物Pと人物Qの中間付近の位置が得られ、方向決定部45aは、人物の位置は図5の領域A1に含まれると判定し、回転方向を左方向(図3の矢印X1方向)に決定し、左方向への回転を駆動制御部45bに指示する。この指示に応じて、駆動制御部45bは、表示画面Sが左方向に回転するように回転スタンド20を制御する。   The direction determining unit 45a weights and averages the position of the person P and the position of the person Q using the attribute information of the person P and the attribute information of the person Q as weights, and the rotation direction of the display screen S based on the obtained position. To decide. Here, a position near the middle between the person P and the person Q is obtained by the weighted average, and the direction determining unit 45a determines that the position of the person is included in the area A1 in FIG. 5 and sets the rotation direction to the left (FIG. 3). And instruct the drive control unit 45b to rotate leftward. In response to this instruction, the drive control unit 45b controls the rotary stand 20 so that the display screen S rotates leftward.

次に、表示方向制御装置40の処理の手順の一例を示す。図12は、実施の形態1に係る映像表示装置100における表示方向制御装置40の処理の手順を示すフローチャートである。当該処理は、例えば、映像表示装置100の起動(または電源オン)時に開始され、その後、一定時間毎に繰り返し実行され、映像表示装置100の電源オフ時に終了する。または、当該処理は、映像表示装置100の起動や、映像表示装置100に対する操作(例えばリモコンキーの操作)の検知など、特定のイベントが発生したことをトリガとして開始され、その後、表示画面Sが視聴者の方向を向くまで(具体的には視聴者の位置が図5の領域A2に入るまで)、一定時間毎に繰り返し実行される。   Next, an example of a processing procedure of the display direction control device 40 will be shown. FIG. 12 is a flowchart illustrating a processing procedure of the display direction control device 40 in the video display device 100 according to the first embodiment. For example, the processing is started when the video display device 100 is activated (or powered on), and thereafter repeatedly executed at regular intervals, and is ended when the video display device 100 is powered off. Alternatively, the processing is triggered by the occurrence of a specific event such as activation of the video display device 100 or detection of an operation on the video display device 100 (for example, operation of a remote control key). This process is repeatedly executed at regular intervals until the viewer faces the viewer (specifically, until the viewer position enters the area A2 in FIG. 5).

制御装置40は、撮像装置30を制御して、撮像画像を取得する(S11)。
次に、制御装置40は、前回の表示画面Sの回転結果を基に、撮像画像のうちの検出対象領域と非検出対象領域とを判定する(S12)。具体的には、制御装置40は、前回の処理における表示画面Sの回転角度に基づいて、今回の撮像画像のうち、前回撮像された領域と、前回に対して今回新たに撮像された領域とを特定し、前回撮像された領域を非検出対象領域に決定し、今回新たに撮像された領域を検出対象領域に決定する。
The control device 40 controls the imaging device 30 to acquire a captured image (S11).
Next, the control device 40 determines a detection target region and a non-detection target region in the captured image based on the previous rotation result of the display screen S (S12). Specifically, the control device 40, based on the rotation angle of the display screen S in the previous process, of the current captured image, the area captured last time, and the area newly captured this time relative to the previous time Is determined, the previously imaged area is determined as the non-detection target area, and the newly imaged area is determined as the detection target area.

次に、制御装置40は、撮像画像のうちの非検出対象領域について、前回の人物検出結果における人物の位置に対し、前回の処理における表示画面Sの回転角度による補正を行い、今回の撮像画像における前回検出された人物の位置を算出し、人物の位置情報を得る(S13)。   Next, the control device 40 corrects the position of the person in the previous person detection result based on the rotation angle of the display screen S in the previous process for the non-detection target region in the captured image, and the current captured image The position of the person detected last time is calculated to obtain position information of the person (S13).

また、制御装置40は、撮像画像のうちの検出対象領域から人物の位置を検出する(S14)。具体的には、制御装置40は、人物の顔の位置、大きさ、および向きを検出し、これらから人物の属性情報を算出し、視聴者かどうかの判定を行い、視聴者と判定された人物の位置情報および属性情報を得る。   Further, the control device 40 detects the position of the person from the detection target area in the captured image (S14). Specifically, the control device 40 detects the position, size, and orientation of the person's face, calculates the attribute information of the person from these, determines whether the viewer is a viewer, and is determined to be a viewer Obtain person position information and attribute information.

次に、制御装置40は、ステップS13の推定結果とステップS14の検出結果とを合成し、今回の撮像画像に対応する人物の位置情報および属性情報を含む情報を生成する(S15)。   Next, the control device 40 combines the estimation result of step S13 and the detection result of step S14 to generate information including the position information and attribute information of the person corresponding to the current captured image (S15).

次に、制御装置40は、ステップS15で生成された情報に含まれる人物の位置情報および属性情報に基づいて、表示画面Sを回転させる回転方向を決定する(S16)。   Next, the control device 40 determines a rotation direction for rotating the display screen S based on the position information and attribute information of the person included in the information generated in step S15 (S16).

次に、制御装置40は、ステップS16で回転させないと決定されたか否かを判断する(S17)。そして、回転させないと決定されたと判断された場合(S17:YES)、制御装置40は、表示画面Sを回転させないよう回転スタンド20の制御を行い(S18)、処理を終了させる。一方、回転させないと決定されていないと判断された場合(S17:NO)、制御装置40は、ステップS16で右方向と決定されたか否かを判断する(S19)。そして、右方向と決定されたと判断された場合(S19:YES)、制御装置40は、表示画面Sを右方向に回転させるよう回転スタンド20の制御を行い(S20)、処理を終了させる。一方、右方向と決定されていないと判断された場合(S19:NO)、制御装置40は、表示画面Sを左方向に回転させるよう回転スタンド20の制御を行い(S21)、処理を終了させる。   Next, the control device 40 determines whether or not it is determined not to rotate in step S16 (S17). If it is determined that it is determined not to rotate (S17: YES), the control device 40 controls the rotating stand 20 so as not to rotate the display screen S (S18), and ends the process. On the other hand, when it is determined that the rotation is not determined (S17: NO), the control device 40 determines whether the right direction is determined in step S16 (S19). If it is determined that the right direction is determined (S19: YES), the control device 40 controls the rotary stand 20 to rotate the display screen S in the right direction (S20), and ends the process. On the other hand, when it is determined that the right direction has not been determined (S19: NO), the control device 40 controls the rotary stand 20 to rotate the display screen S in the left direction (S21), and ends the process. .

以上説明した本実施の形態1によれば、下記(1)〜(5)の効果が得られ得る。
(1)本実施の形態では、表示方向制御装置は、表示画面の前方が撮像された撮像画像について、検出対象領域と非検出対象領域とを決定し、検出対象領域について人物の位置の検出を行い、非検出対象としない領域については過去の検出結果に基づいて人物の位置を推定し、検出された人物の位置と推定された人物の位置とに基づいて、表示画面の向きを制御する。すなわち、表示画面の前方が撮像された撮像画像から人物を検出し、人物の位置に基づいて表示画面の向きを制御する構成において、撮像画像から検出対象領域と非検出対象領域とを決定し、撮像画像のうち、検出対象領域について人物の位置の検出を行い、非検出対象領域については過去の検出結果に基づいて人物の位置を推定する。このため、本実施の形態によれば、撮像画像の全領域に対して人物の位置の検出を行う場合と比較して、人物の位置を検出するための処理量を低減できる。
According to the first embodiment described above, the following effects (1) to (5) can be obtained.
(1) In the present embodiment, the display direction control device determines a detection target region and a non-detection target region for a captured image obtained by capturing the front of the display screen, and detects a person's position in the detection target region. The position of the person is estimated based on the past detection result, and the orientation of the display screen is controlled based on the detected person position and the estimated person position. That is, in a configuration in which a person is detected from a captured image obtained by capturing the front of the display screen and the orientation of the display screen is controlled based on the position of the person, a detection target region and a non-detection target region are determined from the captured image, In the captured image, the position of the person is detected for the detection target area, and the position of the person is estimated based on the past detection result for the non-detection target area. For this reason, according to this Embodiment, compared with the case where the position of a person is detected with respect to the whole area | region of a captured image, the processing amount for detecting the position of a person can be reduced.

例えば、1枚の撮像画像あたりの人物検出にかかる演算量を低減することができ、人物検出に要する時間を短縮することができる。その結果、撮像してから表示画面Sを回転させるまでの所要時間を短くすることができ、機敏な動作を実現できる。具体的には、検出処理に長い時間がかかる構成では、撮像から回転スタンドの回転制御開始までの遅延時間が大きく、特に表示画面の回転中に処理を行う場合に、表示画面の回転制御の追従性が悪くなり、正確に人物の位置に表示画面を向けることができない、あるいは表示画面の位置がすぐに安定しないという問題がある。これに対し、本実施の形態によれば、検出処理の時間を短縮することができ、これにより、撮像から表示画面の回転制御開始までの遅延時間を小さくすることができ、特に表示画面の回転中に処理を行う際の、回転制御の追従性、安定性、あるいは精度を向上させることができる。   For example, it is possible to reduce the amount of calculation required for person detection per captured image, and to shorten the time required for person detection. As a result, it is possible to shorten the time required from when the image is taken to when the display screen S is rotated, and to realize an agile operation. Specifically, in a configuration in which the detection process takes a long time, the delay time from imaging to the start of rotation control of the rotary stand is large, especially when processing is performed while the display screen is rotating, following the rotation control of the display screen. There is a problem that the display screen is not accurately directed to the position of the person or the position of the display screen is not immediately stabilized. On the other hand, according to the present embodiment, it is possible to reduce the detection processing time, thereby reducing the delay time from imaging to the start of display screen rotation control. It is possible to improve the followability, stability, or accuracy of rotation control when processing is performed.

また、単位時間当たりの処理回数を増加させることができ、人物位置検出の精度を向上させることができる。また、1回の処理にかかる消費電力を低減することができる。さらに、処理能力の低い安価なCPUなどを使用して表示方向制御装置を構成することが可能となり、コストダウンを図ることができる。   In addition, the number of processes per unit time can be increased, and the accuracy of person position detection can be improved. In addition, power consumption for one process can be reduced. Furthermore, it becomes possible to configure the display direction control device using an inexpensive CPU having a low processing capacity, and the cost can be reduced.

(2)表示方向制御装置は、取得された撮像画像のうち、人物検出部の過去の検出結果から人物の位置を推定可能な領域を非検出対象領域に決定し、それ以外の領域を検出対象領域に決定する。本態様によれば、撮像画像の全体について人物の位置を検出または推定により得ることができる。   (2) The display direction control device determines an area in which the position of the person can be estimated from a past detection result of the person detection unit as a non-detection target area from the acquired captured image, and detects other areas as detection targets Decide on an area. According to this aspect, the position of a person can be obtained by detecting or estimating the entire captured image.

(3)表示方向制御装置は、取得された撮像画像のうち、前回取得された撮像画像に含まれる領域(すなわち前回撮像された領域)を非検出対象領域に決定し、それ以外の領域を検出対象領域に決定する。本態様によれば、領域の決定を簡単に行うことができる。   (3) The display direction control device determines an area included in the previously acquired captured image (that is, the previously captured area) as a non-detection target area from the acquired captured images, and detects other areas. Determine the target area. According to this aspect, it is possible to easily determine the region.

(4)表示方向制御装置は、前回取得された撮像画像の撮像時から今回取得された撮像画像の撮像時までの表示画面の回転角度に基づいて、検出対象領域と非検出対象領域とを決定する。本態様によれば、回転角度を用いて簡単に領域の決定を行うことができる。具体的には、前回撮像時から今回撮像時までの表示画面の回転角度に基づいて、今回取得された撮像画像のうちの前回取得された撮像画像に含まれる領域(すなわち前回撮像された領域)を簡単に特定でき、領域の決定を簡単に行うことができる。   (4) The display direction control device determines the detection target region and the non-detection target region based on the rotation angle of the display screen from when the captured image acquired last time is captured to when the captured image acquired this time is captured. To do. According to this aspect, the region can be easily determined using the rotation angle. Specifically, based on the rotation angle of the display screen from the previous imaging to the current imaging, an area included in the previously acquired captured image among the captured images acquired this time (that is, the previously captured area) Can be easily identified, and the region can be easily determined.

(5)表示方向制御装置は、人物検出部の過去の検出結果と、表示画面の回転の履歴とに基づいて、人物の位置を推定する。例えば、人物検出部の前回の検出結果と、表示画面が実際に回転した角度(具体的には前回撮像時から今回撮像時までの回転角度)とを利用して、人物の位置を推定する。本態様によれば、人物の位置の推定を簡単に行うことができる。   (5) The display direction control device estimates the position of the person based on the past detection result of the person detection unit and the rotation history of the display screen. For example, the position of the person is estimated using the previous detection result of the person detection unit and the angle at which the display screen is actually rotated (specifically, the rotation angle from the previous imaging to the current imaging). According to this aspect, the position of the person can be easily estimated.

なお、実施の形態1に係る表示方向制御装置は、下記(a)〜(g)のように構成されてもよい。   In addition, the display direction control apparatus according to Embodiment 1 may be configured as shown in the following (a) to (g).

(a)上記の説明では、人物の位置から表示画面Sの回転方向を決定する構成を例示したが、制御部45は、人物の位置から表示画面Sが向くべき目標方向を決定してもよい。具体的には、方向決定部45aは、人物検出部43からの人物の位置情報および属性情報に基づいて、表示画面Sの目標方向を決定してもよい。   (A) In the above description, the configuration in which the rotation direction of the display screen S is determined from the position of the person is exemplified, but the control unit 45 may determine the target direction that the display screen S should face from the position of the person. . Specifically, the direction determination unit 45a may determine the target direction of the display screen S based on the position information and attribute information of the person from the person detection unit 43.

この場合、方向決定部45aは、例えば、図13のように、撮像画像における水平方向の中心位置Pcと人物の位置Pvとの水平方向の距離Lvを求め、当該距離Lvに対応する角度θtを算出し、図14のように、今回の撮像時における表示画面Sの角度位置θsに角度θtを加算して、表示画面Sの目標の角度位置θst(=θs+θt)を決定する。なお、図14において、矢印Dvは人物の方向を示し、矢印Ds(今回)は今回の撮像時における表示画面Sの正面方向を示す。   In this case, for example, as shown in FIG. 13, the direction determining unit 45a obtains a horizontal distance Lv between the horizontal center position Pc and the person position Pv in the captured image, and calculates an angle θt corresponding to the distance Lv. As shown in FIG. 14, the target angle position θst (= θs + θt) of the display screen S is determined by adding the angle θt to the angle position θs of the display screen S at the time of the current imaging. In FIG. 14, an arrow Dv indicates the direction of the person, and an arrow Ds (current time) indicates the front direction of the display screen S at the time of current imaging.

または、方向決定部25は、図15のように、撮像画像を分割したM個(Mは2以上の整数)の領域A1〜AMのうち、人物の位置がどの領域に属するかを特定し、特定された領域に対して予め設定された回転角度θt1〜θtMに基づいて、目標の角度位置θtを決定する。例えば、人物の位置が領域Am(1≦m≦M)に存在する場合、当該領域Amに設定された回転角度θtmを表示画面Sの角度位置θsに加算して、目標の角度位置θst(=θs+θtm)を決定する。   Alternatively, the direction determining unit 25 identifies which region the person's position belongs to among the M (A is an integer of 2 or more) regions A1 to AM obtained by dividing the captured image, as shown in FIG. A target angular position θt is determined based on rotation angles θt1 to θtM preset for the specified region. For example, when the position of the person exists in the area Am (1 ≦ m ≦ M), the rotation angle θtm set in the area Am is added to the angle position θs of the display screen S, and the target angle position θst (= θs + θtm) is determined.

駆動制御部45bは、方向決定部45aにより決定された目標方向に表示画面Sが向くように、回転スタンド20の回転を制御する。具体的には、駆動制御部45bは、表示画面Sの角度位置が目標の角度位置θstと一致するように、回転スタンド20の回転を制御する。   The drive control unit 45b controls the rotation of the rotary stand 20 so that the display screen S faces the target direction determined by the direction determination unit 45a. Specifically, the drive control unit 45b controls the rotation of the rotary stand 20 so that the angular position of the display screen S matches the target angular position θst.

上記の構成において、方向決定部45aは、表示画面Sの目標方向として、角度位置θst(=θs+θt)の代わりに、角度θtを決定して駆動制御部45bに出力してもよい。この場合、駆動制御部45bは、今回の撮像時の位置から表示画面Sが回転角度θtだけ回転するように、回転スタンド20の回転を制御する。   In the above configuration, the direction determination unit 45a may determine the angle θt as the target direction of the display screen S instead of the angular position θst (= θs + θt) and output the angle θt to the drive control unit 45b. In this case, the drive control unit 45b controls the rotation of the rotary stand 20 so that the display screen S is rotated by the rotation angle θt from the current imaging position.

また、上記の構成において、制御装置40の処理は、一定時間毎に実行されてもよいし、リモコンキーの操作の検知など、特定のイベントの発生毎に実行されてもよい。表示画面Sの回転中において、次回の処理の開始は、許容されてもよいし、禁止されてもよい。すなわち、制御装置40は、表示画面Sが目標方向を向く前の表示画面Sの回転中に、次の撮像を行って目標方向を更新してもよいし、表示画面Sが目標方向を向くまでは次回の処理を開始せずに、表示画面Sが目標方向を向いた後に次回の処理を開始してもよい。   Further, in the above configuration, the processing of the control device 40 may be executed at regular intervals, or may be executed every time a specific event occurs, such as detection of an operation of a remote control key. During the rotation of the display screen S, the start of the next process may be allowed or prohibited. That is, the control device 40 may update the target direction by performing the next imaging while the display screen S is rotating before the display screen S faces the target direction, or until the display screen S faces the target direction. May start the next process after the display screen S faces the target direction without starting the next process.

(b)上記の説明では、前回の検出結果から人物の位置を推定する構成を例示したが、人物推定部44は、前回よりも前の検出結果を用いて人物の位置を推定してもよい。例えば、人物推定部44は、現在から所定時間前までの期間内における検出結果から人物の位置を推定してもよいし、直近のN回(N≧2)の検出結果から人物の位置を推定してもよい。   (B) In the above description, the configuration in which the position of the person is estimated from the previous detection result is exemplified, but the person estimation unit 44 may estimate the position of the person using the detection result before the previous time. . For example, the person estimation unit 44 may estimate the position of the person from the detection results in the period from the present to a predetermined time, or estimate the position of the person from the latest N detection results (N ≧ 2). May be.

図16を参照して、過去複数回の検出結果から人物の位置を推定する際の処理を説明する。図16には、3回の撮像が順次行われた場合が示されており、1回目、2回目、3回目の撮像範囲PA1、PA2、PA3が示されている。今回(3回目)の撮像範囲PA3のうち、過去に検出が行われていない領域a3については、今回人物の検出を行い、前回(2回目)に検出が行われた領域a2については、前回の検出結果と、前回から今回までの表示画面Sの回転角度θ2とに基づいて人物の位置を推定し、前々回(1回目)に検出が行われた領域a1については、前々回の検出結果と、前々回から今回までの表示画面Sの回転角度(θ1+θ2)とに基づいて人物の位置を推定する。   With reference to FIG. 16, the process at the time of estimating a person's position from the past detection results will be described. FIG. 16 shows a case where three times of imaging are sequentially performed, and the first, second, and third imaging ranges PA1, PA2, and PA3 are shown. In the current (third time) imaging range PA3, the person a is detected this time for the area a3 that has not been detected in the past, and the previous time (second time) for the area a2 that was detected last time. The position of the person is estimated based on the detection result and the rotation angle θ2 of the display screen S from the previous time to the current time, and the detection result of the previous time and the previous time for the area a1 detected in the previous time (first time). To the current position based on the rotation angle (θ1 + θ2) of the display screen S.

(c)人物推定部44は、人物の位置の過去の検出結果を蓄積し、蓄積されている過去の検出結果を用いて人物の位置を推定してもよい。この場合、人物推定部44は、蓄積されている検出結果を所定のタイミングで(例えば定期的に)クリアしてもよい。これにより、人物の位置の推定の誤差の蓄積をリセットまたは回避することができ、人物位置の推定の精度を高く保つことができる。上記クリアの間隔は、例えば1秒ないし数秒ごとに行われるが、それ以上であってもそれ以下であってもよい。   (C) The person estimation unit 44 may accumulate past detection results of the person's position, and may estimate the person's position using the accumulated past detection results. In this case, the person estimation unit 44 may clear the accumulated detection results at a predetermined timing (for example, periodically). Thereby, accumulation of errors in estimating the position of the person can be reset or avoided, and the accuracy of estimating the position of the person can be kept high. The clearing interval is performed, for example, every 1 to several seconds, but may be more or less than that.

(d)領域決定部42は、所定のタイミングで(例えば定期的に)、撮像画像の全領域を検出対象領域に決定してもよい。当該態様によれば、人物の位置の推定の誤差の蓄積をリセットまたは回避することができ、人物位置の推定の精度を高く保つことができる。当該処理の実行の間隔は、例えば1秒ないし数秒ごとに行われるが、それ以上であってもそれ以下であってもよい。   (D) The region determination unit 42 may determine the entire region of the captured image as a detection target region at a predetermined timing (for example, periodically). According to this aspect, it is possible to reset or avoid accumulation of errors in estimating the position of a person, and it is possible to maintain high accuracy in estimating the position of a person. The interval of execution of the processing is performed, for example, every 1 to several seconds, but may be longer or shorter than that.

(e)上記の説明では、人物の位置として撮像画像の座標系における人物の座標を用いる構成を例示したが、図6に示されるように、人物の位置として、撮像時における表示画面Sの正面方向Dsに対する人物の角度位置θvrを用いてもよい。この角度位置θvrは、撮像時における表示画面Sの向きを基準とした相対的な人物の角度位置と言える。なお、図6において、矢印Dvは人物の方向を示す。   (E) In the above description, the configuration using the coordinates of the person in the coordinate system of the captured image as the position of the person is illustrated. However, as shown in FIG. 6, the front of the display screen S at the time of imaging is used as the position of the person. The person's angular position θvr with respect to the direction Ds may be used. This angular position θvr can be said to be a relative angle position of a person based on the orientation of the display screen S at the time of imaging. In FIG. 6, an arrow Dv indicates the direction of the person.

本態様では、人物検出部43は、撮像画像における人物の位置を検出し、当該人物の位置の画像中心からの水平方向のずれ量を求め、当該ずれ量を角度位置θvrに換算する。   In this aspect, the person detection unit 43 detects the position of the person in the captured image, obtains a horizontal shift amount of the person position from the image center, and converts the shift amount into the angular position θvr.

方向決定部45aは、検出された人物の角度位置θvrに基づいて、表示画面Sの回転方向を決定する。または、方向決定部45aは、検出された人物の角度位置θvrを、そのまま表示画面Sの目標の回転角度θtとして決定する。   The direction determination unit 45a determines the rotation direction of the display screen S based on the detected angular position θvr of the person. Alternatively, the direction determination unit 45a determines the detected angle position θvr of the person as the target rotation angle θt of the display screen S as it is.

人物推定部44は、図17に示されるように、前回検出された人物の角度位置θvr1から、前回の撮像時から今回の撮像時までの表示画面Sの回転角度θを減算することにより、今回の撮像時における表示画面Sの正面方向に対する人物の角度位置θvr2(=θvr1−θ)を算出する。なお、図17において、矢印Dvは人物の方向を示し、矢印Ds(今回)は今回の撮像時における表示画面Sの正面方向を示し、矢印Ds(前回)は前回の撮像時における表示画面Sの正面方向を示す。   As shown in FIG. 17, the person estimation unit 44 subtracts the rotation angle θ of the display screen S from the previous imaging time to the current imaging time from the previously detected person's angular position θvr1, thereby The angle position θvr2 (= θvr1-θ) of the person with respect to the front direction of the display screen S at the time of imaging is calculated. In FIG. 17, the arrow Dv indicates the direction of the person, the arrow Ds (current) indicates the front direction of the display screen S at the time of current imaging, and the arrow Ds (previous) indicates the direction of the display screen S at the previous imaging. The front direction is shown.

(f)また、図6に示されるように、人物の位置として、所定の方向(例えば初期位置にある表示画面Sの正面方向)D0に対する人物の角度位置θvを用いてもよい。この角度位置θvは、表示画面Sの回転に依存しない絶対的な人物の角度位置と言える。   (F) Also, as shown in FIG. 6, as the position of the person, the angle position θv of the person with respect to a predetermined direction (for example, the front direction of the display screen S at the initial position) D0 may be used. This angular position θv can be said to be an absolute person's angular position independent of the rotation of the display screen S.

本態様では、人物検出部43は、上記(e)と同様に人物の角度位置θvrを算出し、当該角度位置θvrを撮像時における表示画面Sの角度位置θsに加算して、人物の角度位置θv(=θs+θvr)を求める。   In this aspect, the person detection unit 43 calculates the angle position θvr of the person in the same manner as in the above (e), and adds the angle position θvr to the angle position θs of the display screen S at the time of imaging to obtain the angle position of the person. θv (= θs + θvr) is obtained.

方向決定部45aは、人物検出部43により検出された人物の角度位置θvと、今回の撮像時における表示画面Sの角度位置θsとを比較して、表示画面Sの回転方向を決定する。または、方向決定部45aは、検出された人物の角度位置θvを、そのまま表示画面Sの目標の角度位置θstとして決定する。   The direction determination unit 45a determines the rotation direction of the display screen S by comparing the angle position θv of the person detected by the person detection unit 43 with the angle position θs of the display screen S at the time of the current imaging. Alternatively, the direction determination unit 45a determines the detected angular position θv of the person as the target angular position θst of the display screen S as it is.

人物推定部44は、過去に検出された人物の角度位置θvをそのまま今回の人物の角度位置として推定する。   The person estimation unit 44 estimates the angle position θv of the person detected in the past as it is as the angle position of the current person.

(g)上記の説明では、前回の撮像時から今回の撮像時までの表示画面Sの回転角度に基づいて非検出対象領域および検出対象領域の決定を行う構成を例示したが、領域決定部42は、所定の方向(例えば初期位置にある表示画面Sの正面方向)D0を基準として、人物位置の推定に用いられる過去の検出結果に対応する過去の撮像画像の角度範囲(すなわち、人物位置を推定可能な角度範囲)を記憶しておき、今回の撮像画像のうち、上記角度範囲に相当する領域を、非検出対象領域に決定してもよい。   (G) In the above description, the configuration for determining the non-detection target region and the detection target region based on the rotation angle of the display screen S from the previous imaging to the current imaging is illustrated. Is based on a predetermined direction (for example, the front direction of the display screen S at the initial position) D0 as a reference, and the angle range of the past captured image corresponding to the past detection result used for the estimation of the person position (that is, the person position is (An estimated angle range) may be stored, and a region corresponding to the angle range in the current captured image may be determined as a non-detection target region.

実施の形態2.
以下、実施の形態2の映像表示装置について説明する。実施の形態2に係る映像表示装置は、上記実施の形態1に係る映像表示装置に対し、人物の推定において異なっており、その他の部分については略同様である。以下の説明では、実施の形態1と同様の部分については説明を省略または簡略化し、実施の形態1と同一または対応する要素については同一の符号を付す。
Embodiment 2. FIG.
Hereinafter, the video display apparatus according to the second embodiment will be described. The video display device according to the second embodiment differs from the video display device according to the first embodiment in the estimation of a person, and the other portions are substantially the same. In the following description, the description of the same parts as those in the first embodiment is omitted or simplified, and the same or corresponding elements as those in the first embodiment are denoted by the same reference numerals.

本実施の形態では、人物推定部44は、非検出対象領域について過去の検出結果に基づいて人物の位置を推定する場合、当該過去の検出結果に対応する過去の撮像画像と今回取得された撮像画像との間での、当該過去の検出結果における人物の位置の移動を検出し、その結果に基づいて人物の位置を推定する。すなわち、人物推定部44は、撮像画像のうちの非検出対象領域に対し、人物の位置についての動き検出処理を行い、その結果に基づいて人物位置の推定を行う。動き検出処理は、例えばブロック画像と撮像画像とのマッチング演算により実行される。   In the present embodiment, when estimating the position of the person based on the past detection result for the non-detection target region, the person estimation unit 44 and the previously acquired image corresponding to the past detection result and the currently acquired imaging The movement of the position of the person in the past detection result with respect to the image is detected, and the position of the person is estimated based on the result. That is, the person estimation unit 44 performs a motion detection process on the position of the person for the non-detection target region in the captured image, and estimates the person position based on the result. The motion detection process is executed by, for example, a matching operation between a block image and a captured image.

具体的には、人物推定部44は、非検出対象領域について過去の検出結果に基づいて人物の位置を推定する場合、上記非検出対象領域から、上記過去の検出結果に対応する過去の撮像画像のうち上記過去の検出結果における人物の位置を含む部分(または当該位置の近辺の部分)と一致または類似する部分を検出し、当該検出された部分の位置を人物の位置として推定する。   Specifically, when estimating the position of the person based on the past detection result for the non-detection target region, the person estimation unit 44 captures a past captured image corresponding to the past detection result from the non-detection target region. Among the above detection results, a part that matches or is similar to a part including the position of the person (or a part in the vicinity of the position) in the past detection result is detected, and the position of the detected part is estimated as the position of the person.

より具体的には、人物推定部44は、過去の人物位置の検出結果の他に、当該過去の検出結果に対応する過去の撮像画像全体も記憶しておく。そして、人物推定部44は、過去の検出結果から人物の位置を推定する場合、当該検出結果に対応する過去の撮像画像から、当該検出結果における人物の位置を含むブロック(または当該位置の近辺のブロック)を切り出し、今回取得された撮像画像の非検出対象領域から、上記ブロックとの類似度が最も高いブロックを探索し、探索されたブロックの位置を人物の位置と推定する。   More specifically, the person estimation unit 44 stores the entire past captured image corresponding to the past detection result in addition to the past person position detection result. Then, when estimating the position of the person from the past detection result, the person estimation unit 44, based on the past captured image corresponding to the detection result, the block including the position of the person in the detection result (or the vicinity of the position) Block), a block having the highest similarity to the block is searched from the non-detection target area of the captured image acquired this time, and the position of the searched block is estimated as the position of the person.

例えば、人物推定部44は、前回の撮像画像から、前回検出された人物の位置を中心とする所定サイズ(ここでは128×128画素)のブロック画像を切り出す。また、人物推定部44は、実施の形態1と同様に、前回の検出結果に対して、前回の表示画面Sの回転角度に基づく変換を加えて、今回の撮像画像における前回検出された人物の位置を推定する。そして、人物推定部44は、今回の撮像画像から、上記推定された人物の位置を中心とする上記所定サイズ(ここでは128×128画素)のブロック画像を切り出し、上記前回の撮像画像から切り出されたブロック画像との画素ごとの画素値の誤差の総和Eの平均値E/128を演算する。次に、人物推定部44は、上記推定された人物の位置から水平方向にm画素、垂直方向にn画素(m、nは、例えば−64≦m,n≦64を満たす整数)だけ離れた位置を中心とする上記所定サイズ(ここでは128×128画素)のブロック画像に対しても同様の演算を行い、得られた(m+1)×(n+1)個の誤差の総和の平均値の中で、最小のものに対応するmとnの値(M,N)を求める。そして、人物推定部44は、上記推定された人物の位置から水平方向にM画素、垂直方向にN画素だけシフトした位置を、新たな人物推定位置とする。 For example, the person estimation unit 44 cuts out a block image of a predetermined size (here, 128 × 128 pixels) centering on the position of the person detected last time from the previous captured image. In addition, as in the first embodiment, the person estimation unit 44 adds conversion based on the rotation angle of the previous display screen S to the previous detection result, and detects the person detected last time in the current captured image. Estimate the position. Then, the person estimation unit 44 cuts out the block image of the predetermined size (here, 128 × 128 pixels) centered on the estimated person position from the current captured image, and is cut out from the previous captured image. and calculates the average value E / 128 2 of the error of the sum E of the pixel values of each pixel of the block image. Next, the person estimation unit 44 is separated from the estimated person position by m pixels in the horizontal direction and n pixels in the vertical direction (m and n are integers satisfying −64 ≦ m, n ≦ 64, for example). The same calculation is performed on the block image of the predetermined size (here, 128 × 128 pixels) centered on the position, and among the obtained average value of the sum of the (m + 1) × (n + 1) errors, The values (M, N) of m and n corresponding to the smallest one are obtained. Then, the person estimation unit 44 sets a position shifted by M pixels in the horizontal direction and N pixels in the vertical direction from the estimated person position as a new person estimated position.

このとき、人物推定部44は、誤差の総和の平均値のうちの最小値が所定の閾値よりも大きい場合には、対象人物はすでに撮像画像内には存在しないものと判断してもよい。   At this time, the person estimation unit 44 may determine that the target person does not already exist in the captured image when the minimum value of the average value of the sum of errors is larger than a predetermined threshold.

属性情報については、人物推定部44は、例えば、前回得られた属性情報を、変更せずにそのまま利用する。   As for the attribute information, the person estimation unit 44 uses, for example, the attribute information obtained last time without change.

なお、上記のブロックのサイズや探索範囲(m,nの値の範囲)は一例であり、例えば撮像装置30の解像度や撮像間隔に応じて適切な値に設定されればよい。   Note that the block size and the search range (m and n value ranges) described above are examples, and may be set to appropriate values according to, for example, the resolution of the imaging device 30 and the imaging interval.

また、上記人物推定部44による処理の一部は、人物検出部43により実行されてもよい。   A part of the processing by the person estimation unit 44 may be executed by the person detection unit 43.

この場合、例えば、人物推定部44は、実施の形態1と同様に、前回検出された人物の位置と、表示画面Sの回転角度とに基づいて、今回の撮像画像における人物の位置を推定し、推定された人物の位置を人物検出部43に出力する。さらに、人物推定部44は、前回の撮像画像全体を記憶しており、当該前回の撮像画像から、前回検出された人物の位置を中心とする128×128画素のブロックを切り出して、人物検出部43に出力する。   In this case, for example, the person estimation unit 44 estimates the position of the person in the current captured image based on the position of the person detected last time and the rotation angle of the display screen S, as in the first embodiment. The estimated person position is output to the person detection unit 43. Furthermore, the person estimation unit 44 stores the entire previous captured image, cuts out a 128 × 128 pixel block centered on the position of the person detected last time from the previous captured image, and extracts the person detection unit. Output to 43.

人物検出部43は、領域決定部42から、検出対象領域だけでなく非検出対象領域を含めた全領域の撮像画像を受け取る。そして、人物検出部43は、領域決定部42からの撮像画像のうち、検出対象領域については、実施の形態1と同様に人物の位置の検出を行い、非検出対象領域については、動き検出処理を行い、その結果に基づいて人物の位置の推定を行う。具体的には、人物検出部43は、今回の撮像画像から、人物推定部44により推定された人物の位置を中心とした128×128画素のブロックを切り出し、人物推定部44からのブロックとの画素ごとの画素値の誤差の総和Eの平均値E/128を演算する。次に、人物検出部43は、人物推定部44により推定された人物の位置から水平方向にm画素、垂直方向にn画素だけ離れた位置を中心とする128×128画素のブロックに対しても同様の演算を行い、得られた(m+1)×(n+1)個の誤差の総和の平均値の中で、最小のものに対応するmとnの値(M,N)を求める。そして、人物検出部43は、人物推定部44により推定された人物の位置から水平方向にM画素、垂直方向にN画素だけシフトした位置を、新たな人物推定位置とする。 The person detection unit 43 receives, from the region determination unit 42, captured images of the entire region including not only the detection target region but also the non-detection target region. Then, the person detection unit 43 detects the position of the person in the captured image from the region determination unit 42 as in the first embodiment for the detection target region, and performs motion detection processing for the non-detection target region. And the position of the person is estimated based on the result. Specifically, the person detection unit 43 cuts out a block of 128 × 128 pixels centered on the position of the person estimated by the person estimation unit 44 from the current captured image, and extracts the block from the person estimation unit 44. It calculates an average value E / 128 2 of the error of the sum E of the pixel values for each pixel. Next, the person detection unit 43 also applies a 128 × 128 pixel block centered at a position separated by m pixels in the horizontal direction and n pixels in the vertical direction from the position of the person estimated by the person estimation unit 44. The same calculation is performed, and the values (M, N) of m and n corresponding to the smallest one among the average values of the total sum of the (m + 1) × (n + 1) errors obtained are obtained. The person detection unit 43 sets a position shifted by M pixels in the horizontal direction and N pixels in the vertical direction from the position of the person estimated by the person estimation unit 44 as a new person estimated position.

以上説明した本実施の形態2によれば、上記(1)〜(5)の効果の他に、下記(6)の効果が得られ得る。
(6)表示方向制御装置は、非検出対象領域について過去の検出結果に基づいて人物の位置を推定する場合、過去の検出結果に対応する過去の撮像画像と今回取得された撮像画像との間での、過去の検出結果における人物の位置の移動を検出し、その結果に基づいて人物の位置を推定する。このため、本実施の形態によれば、過去に検出された人物の移動を考慮して人物の位置を推定することができ、人物位置の推定の精度を向上させることができる。
According to the second embodiment described above, the following effect (6) can be obtained in addition to the effects (1) to (5).
(6) When estimating the position of the person based on the past detection result for the non-detection target region, the display direction control device determines whether the captured image acquired between the past and the current captured image corresponding to the past detection result. The movement of the position of the person in the past detection result is detected, and the position of the person is estimated based on the result. For this reason, according to the present embodiment, the position of the person can be estimated in consideration of the movement of the person detected in the past, and the accuracy of the estimation of the person position can be improved.

以上説明した実施の形態1、2において、表示方向制御装置または映像表示装置の機能は、電子回路などのハードウェア資源のみにより実現されてもよいし、ハードウェア資源とソフトウェアとの協働により実現されてもよい。ハードウェア資源とソフトウェアとの協働により実現される場合、表示方向制御装置または映像表示装置の機能は、例えばコンピュータプログラムがコンピュータにより実行されることによって実現される。より具体的には、表示方向制御装置または映像表示装置の機能は、ROM(Read Only Memory)等の記録媒体に記録されたコンピュータプログラムが主記憶装置に読み出されて中央処理装置(CPU:Central Processing Unit)により実行されることによって実現される。コンピュータプログラムは、光ディスク等のコンピュータ読み取り可能な記録媒体に記録されて提供されてもよいし、インターネット等の通信回線を介して提供されてもよい。   In the first and second embodiments described above, the function of the display direction control device or the video display device may be realized only by hardware resources such as an electronic circuit, or by cooperation of hardware resources and software. May be. When realized by the cooperation of hardware resources and software, the functions of the display direction control device or the video display device are realized by, for example, a computer program being executed by a computer. More specifically, the function of the display direction control device or the video display device is as follows. A computer program recorded in a recording medium such as a ROM (Read Only Memory) is read out to a main storage device and a central processing unit (CPU: Central). It is realized by being executed by Processing Unit). The computer program may be provided by being recorded on a computer-readable recording medium such as an optical disk, or may be provided via a communication line such as the Internet.

なお、本発明は、上記実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の態様で実施することができる。   In addition, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it can implement with a various aspect.

10 表示部、 20 回転スタンド、 30 撮像装置、 31 撮像面、 40 表示方向制御装置、 41 画像取得部、 42 領域決定部、 43 人物検出部、 44 人物推定部、 45 制御部、 45a 方向決定部、 45b 駆動制御部、 46 回転量判定部、 100 映像表示装置、 S 表示画面。   DESCRIPTION OF SYMBOLS 10 Display part, 20 rotation stand, 30 imaging device, 31 imaging surface, 40 display direction control apparatus, 41 image acquisition part, 42 area | region determination part, 43 person detection part, 44 person estimation part, 45 control part, 45a direction determination part 45b drive control unit, 46 rotation amount determination unit, 100 video display device, S display screen.

Claims (12)

表示画面の前方が撮像された画像を取得する画像取得手段と、
前記取得された画像について、人物の位置の検出対象とする領域と検出対象としない領域とを決定する領域決定手段と、
前記取得された画像のうち前記検出対象とする領域から人物の位置を検出する人物検出手段と、
前記取得された画像のうち前記検出対象としない領域について、前記人物検出手段の過去の検出結果に基づいて人物の位置を推定する人物推定手段と、
前記検出された人物の位置と前記推定された人物の位置とに基づいて、前記表示画面の向きを制御する制御手段と、
を備えることを特徴とする表示方向制御装置。
Image acquisition means for acquiring an image obtained by imaging the front of the display screen;
A region determining means for determining a region to be detected for the position of a person and a region not to be detected for the acquired image;
Person detecting means for detecting the position of a person from the area to be detected in the acquired image;
A person estimation unit that estimates a position of a person based on a past detection result of the person detection unit for a region that is not the detection target in the acquired image;
Control means for controlling the orientation of the display screen based on the detected position of the person and the estimated position of the person;
A display direction control device comprising:
前記領域決定手段は、前記取得された画像のうち、前記人物検出手段の過去の検出結果から人物の位置を推定可能な領域を前記検出対象としない領域に決定し、それ以外の領域を前記検出対象とする領域に決定する、
ことを特徴とする請求項1に記載の表示方向制御装置。
The area determination means determines an area in which the position of a person can be estimated from the past detection results of the person detection means as an area not to be detected from the acquired image, and detects the other areas. Decide on the target area,
The display direction control apparatus according to claim 1.
前記領域決定手段は、前記取得された画像のうち、前回取得された画像に含まれる領域を前記検出対象としない領域に決定し、それ以外の領域を前記検出対象とする領域に決定する、
ことを特徴とする請求項1または2に記載の表示方向制御装置。
The region determining means determines, in the acquired image, a region included in the previously acquired image as a region that is not the detection target, and determines other regions as the detection target region,
The display direction control device according to claim 1, wherein the display direction control device is a display direction control device.
前記領域決定手段は、前回取得された画像の撮像時から今回取得された画像の撮像時までの前記表示画面の回転角度に基づいて、前記検出対象とする領域と前記検出対象としない領域とを決定する、
ことを特徴とする請求項1から3のいずれか1項に記載の表示方向制御装置。
The region determination means determines the region to be detected and the region not to be detected based on the rotation angle of the display screen from the time of capturing the previously acquired image to the time of capturing the image acquired this time. decide,
The display direction control device according to claim 1, wherein the display direction control device is a display direction control device.
前記人物推定手段は、前記人物検出手段の過去の検出結果と、前記表示画面の回転の履歴とに基づいて、前記人物の位置を推定する、
ことを特徴とする請求項1から4のいずれか1項に記載の表示方向制御装置。
The person estimation means estimates the position of the person based on a past detection result of the person detection means and a history of rotation of the display screen;
The display direction control apparatus according to claim 1, wherein the display direction control apparatus is a display direction control apparatus.
前記人物推定手段は、前記人物検出手段の過去の検出結果を蓄積し、蓄積されている検出結果に基づいて前記人物の位置を推定し、前記蓄積されている検出結果を所定のタイミングでクリアする、
ことを特徴とする請求項1から5のいずれか1項に記載の表示方向制御装置。
The person estimation means accumulates past detection results of the person detection means, estimates the position of the person based on the accumulated detection results, and clears the accumulated detection results at a predetermined timing. ,
The display direction control apparatus according to claim 1, wherein the display direction control apparatus is a display direction control apparatus.
前記領域決定手段は、所定のタイミングで、前記取得された画像のすべての領域を前記検出対象とする領域に決定する、
ことを特徴とする請求項1から6のいずれか1項に記載の表示方向制御装置。
The region determination means determines all regions of the acquired image as the detection target region at a predetermined timing.
The display direction control apparatus according to claim 1, wherein the display direction control apparatus is a display direction control apparatus.
前記人物推定手段は、前記検出対象としない領域について前記過去の検出結果に基づいて人物の位置を推定する場合、前記過去の検出結果に対応する過去の画像と今回取得された画像との間での、前記過去の検出結果における人物の位置の移動を検出し、その結果に基づいて人物の位置を推定する、
ことを特徴とする請求項1から7のいずれか1項に記載の表示方向制御装置。
When estimating the position of the person based on the past detection result for the region that is not the detection target, the person estimation unit between the past image corresponding to the past detection result and the image acquired this time Detecting the movement of the position of the person in the past detection result, and estimating the position of the person based on the result,
The display direction control apparatus according to claim 1, wherein the display direction control apparatus is a display direction control apparatus.
前記人物推定手段は、前記検出対象としない領域について前記過去の検出結果に基づいて人物の位置を推定する場合、前記検出対象としない領域から、前記過去の検出結果に対応する過去の画像のうち前記過去の検出結果における人物の位置を含む部分と一致または類似する部分を検出し、当該検出された部分の位置を前記人物の位置として推定する、
ことを特徴とする請求項1から8のいずれか1項に記載の表示方向制御装置。
When estimating the position of the person based on the past detection result for the area that is not the detection target, the person estimation unit includes a past image corresponding to the past detection result from the area that is not the detection target. Detecting a portion that matches or is similar to the portion including the position of the person in the past detection result, and estimates the position of the detected portion as the position of the person;
The display direction control apparatus according to claim 1, wherein the display direction control apparatus is a display direction control apparatus.
映像を表示する表示画面を有する表示部と、
前記表示画面の前方を撮像して画像を取得する撮像装置と、
前記表示部を回転可能に支持する回転スタンドと、
前記取得された画像について、人物の位置の検出対象とする領域と検出対象としない領域とを決定する領域決定手段と、
前記取得された画像のうち前記検出対象とする領域から人物の位置を検出する人物検出手段と、
前記取得された画像のうち前記検出対象としない領域について、前記人物検出手段の過去の検出結果に基づいて人物の位置を推定する人物推定手段と、
前記検出された人物の位置と前記推定された人物の位置とに基づいて、前記回転スタンドによる前記表示部の回転を制御することにより、前記表示画面の向きを制御する制御手段と、
を備えることを特徴とする映像表示装置。
A display unit having a display screen for displaying video;
An imaging device that images the front of the display screen to acquire an image;
A rotating stand that rotatably supports the display unit;
A region determining means for determining a region to be detected for the position of a person and a region not to be detected for the acquired image;
Person detecting means for detecting the position of a person from the area to be detected in the acquired image;
A person estimation unit that estimates a position of a person based on a past detection result of the person detection unit for a region that is not the detection target in the acquired image;
Control means for controlling the orientation of the display screen by controlling the rotation of the display unit by the rotary stand based on the detected position of the person and the estimated position of the person;
A video display device comprising:
表示画面の前方が撮像された画像を取得する画像取得ステップと、
前記取得された画像について、人物の位置の検出対象とする領域と検出対象としない領域とを決定する領域決定ステップと、
前記取得された画像のうち前記検出対象とする領域から人物の位置を検出する人物検出ステップと、
前記取得された画像のうち前記検出対象としない領域について、前記人物検出ステップの過去の検出結果に基づいて人物の位置を推定する人物推定ステップと、
前記検出された人物の位置と前記推定された人物の位置とに基づいて、前記表示画面の向きを制御する制御ステップと、
を有することを特徴とする表示方向制御方法。
An image acquisition step of acquiring an image in which the front of the display screen is captured;
An area determining step for determining an area to be detected for the position of a person and an area not to be detected for the acquired image;
A person detecting step of detecting a position of a person from the area to be detected in the acquired image;
A person estimation step for estimating a position of a person based on a past detection result of the person detection step for a region not to be detected in the acquired image;
A control step for controlling the orientation of the display screen based on the detected position of the person and the estimated position of the person;
A display direction control method characterized by comprising:
表示画面の前方が撮像された画像を取得する画像取得ステップと、
前記取得された画像について、人物の位置の検出対象とする領域と検出対象としない領域とを決定する領域決定ステップと、
前記取得された画像のうち前記検出対象とする領域から人物の位置を検出する人物検出ステップと、
前記取得された画像のうち前記検出対象としない領域について、前記人物検出ステップの過去の検出結果に基づいて人物の位置を推定する人物推定ステップと、
前記検出された人物の位置と前記推定された人物の位置とに基づいて、前記表示画面の向きを制御する制御ステップと、
をコンピュータに実行させることを特徴とする表示方向制御プログラム。
An image acquisition step of acquiring an image in which the front of the display screen is captured;
An area determining step for determining an area to be detected for the position of a person and an area not to be detected for the acquired image;
A person detecting step of detecting a position of a person from the area to be detected in the acquired image;
A person estimation step for estimating a position of a person based on a past detection result of the person detection step for a region not to be detected in the acquired image;
A control step for controlling the orientation of the display screen based on the detected position of the person and the estimated position of the person;
A display direction control program for causing a computer to execute the above.
JP2011264698A 2011-12-02 2011-12-02 Display direction control device, display direction control method, display direction control program, and video display device Expired - Fee Related JP5843590B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011264698A JP5843590B2 (en) 2011-12-02 2011-12-02 Display direction control device, display direction control method, display direction control program, and video display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011264698A JP5843590B2 (en) 2011-12-02 2011-12-02 Display direction control device, display direction control method, display direction control program, and video display device

Publications (2)

Publication Number Publication Date
JP2013118484A true JP2013118484A (en) 2013-06-13
JP5843590B2 JP5843590B2 (en) 2016-01-13

Family

ID=48712764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011264698A Expired - Fee Related JP5843590B2 (en) 2011-12-02 2011-12-02 Display direction control device, display direction control method, display direction control program, and video display device

Country Status (1)

Country Link
JP (1) JP5843590B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013016976A (en) * 2011-07-01 2013-01-24 Mitsubishi Electric Corp Image display device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006324952A (en) * 2005-05-19 2006-11-30 Hitachi Ltd Television receiver
JP2009296521A (en) * 2008-06-09 2009-12-17 Hitachi Ltd Television receiver
JP2011053915A (en) * 2009-09-02 2011-03-17 Sony Corp Image processing apparatus, image processing method, program, and electronic device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006324952A (en) * 2005-05-19 2006-11-30 Hitachi Ltd Television receiver
JP2009296521A (en) * 2008-06-09 2009-12-17 Hitachi Ltd Television receiver
JP2011053915A (en) * 2009-09-02 2011-03-17 Sony Corp Image processing apparatus, image processing method, program, and electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013016976A (en) * 2011-07-01 2013-01-24 Mitsubishi Electric Corp Image display device

Also Published As

Publication number Publication date
JP5843590B2 (en) 2016-01-13

Similar Documents

Publication Publication Date Title
CN109842753B (en) Camera anti-shake system, camera anti-shake method, electronic device and storage medium
US8004570B2 (en) Image processing apparatus, image-pickup apparatus, and image processing method
US10805539B2 (en) Anti-shake method for camera and camera
JP5487722B2 (en) Imaging apparatus and shake correction method
US8072499B2 (en) Image capture device and method
US9609217B2 (en) Image-based motion sensor and related multi-purpose camera system
JP5413344B2 (en) Imaging apparatus, image composition method, and program
JP5592006B2 (en) 3D image processing
JP5906028B2 (en) Image processing apparatus and image processing method
JP5843454B2 (en) Image processing apparatus, image processing method, and program
JP5267396B2 (en) Image processing apparatus and method, and program
US10798345B2 (en) Imaging device, control method of imaging device, and storage medium
CN107404615B (en) Image recording method and electronic equipment
CN109951638B (en) Camera anti-shake system, camera anti-shake method, electronic device, and computer-readable storage medium
JP5613041B2 (en) Camera device, image processing system, and image processing method
US10931882B2 (en) Imaging device, control method of imaging device, and storage medium, with controlling of exposure levels of plurality of imaging units
JP6574645B2 (en) Control device for controlling imaging apparatus, control method for imaging apparatus, and program
WO2015106508A1 (en) Image presentation method, terminal device and computer storage medium
JP2011097246A (en) Image processing apparatus, method, and program
JP2009253505A (en) Image signal processing apparatus, image signal processing method, and program
JP2007281555A (en) Imaging apparatus
WO2022057800A1 (en) Gimbal camera, gimbal camera tracking control method and apparatus, and device
US9699378B2 (en) Image processing apparatus, method, and storage medium capable of generating wide angle image
JP2013038482A (en) Imaging device
JP5843590B2 (en) Display direction control device, display direction control method, display direction control program, and video display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151117

R150 Certificate of patent or registration of utility model

Ref document number: 5843590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees