JP2011259384A - Imaging apparatus, display device, program, and recording media - Google Patents

Imaging apparatus, display device, program, and recording media Download PDF

Info

Publication number
JP2011259384A
JP2011259384A JP2010134345A JP2010134345A JP2011259384A JP 2011259384 A JP2011259384 A JP 2011259384A JP 2010134345 A JP2010134345 A JP 2010134345A JP 2010134345 A JP2010134345 A JP 2010134345A JP 2011259384 A JP2011259384 A JP 2011259384A
Authority
JP
Japan
Prior art keywords
user
unit
person
camera
human sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010134345A
Other languages
Japanese (ja)
Inventor
Hiroaki Kondo
広明 近藤
Muneki Yoshida
宗樹 吉田
Yasushi Watanabe
恭 渡邉
Takayuki Toguchi
貴行 戸口
Morimichi Muto
守道 武藤
Ali Algobi
アリ アルグビ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010134345A priority Critical patent/JP2011259384A/en
Publication of JP2011259384A publication Critical patent/JP2011259384A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of driving a camera so as to image an object to be imaged efficiently within the angle of view of the camera when the object to be imaged is out of range of the angle of view of the camera.SOLUTION: A television 1 comprises: a camera 20; a human sensor 30; a drive part to drive the camera 20 to change a photographing possible area of the camera 20 ; and a drive part control means to drive the drive part so that a person exists within the photographing possible area of the camera 20 when it is determined that the person exists within a detectable area of the human sensor 30 and the person does not exist within the photographing possible area of the camera 20.

Description

本発明は、カメラ及び人感センサを備えた撮像装置、及び、カメラ及び人感センサを備えた表示装置に関する。   The present invention relates to an imaging device including a camera and a human sensor, and a display device including the camera and a human sensor.

近年、カメラで撮影したユーザの画像を用いてユーザの利便性を向上させるアプリケーションを実行する装置が広く普及してきている。   2. Description of the Related Art In recent years, apparatuses that execute applications that improve user convenience by using user images taken with a camera have become widespread.

例えば、特許文献1には、注目度の評価値から所定コンテンツに対する満足度を算出し、満足度に基づき視聴ユーザの嗜好性を判断する嗜好性情報管理装置が記載されている。   For example, Patent Literature 1 describes a preference information management device that calculates a satisfaction level with respect to a predetermined content from an evaluation value of a degree of attention and determines a viewing user's preference level based on the satisfaction level.

特許文献2には、カメラによって撮像された使用者の顔の時間的変化から瞬きを検出して、これを基に覚醒度を推定し、推定した覚醒度を基に映像信号の変換を行う技術が記載されている。   Patent Document 2 discloses a technique for detecting blinking from a temporal change of a user's face imaged by a camera, estimating arousal level based on this, and converting a video signal based on the estimated arousal level. Is described.

特開2009−267445号公報(2009年11月12日公開)JP 2009-267445 A (published on November 12, 2009) 特開2007−3618号公報(2007年1月11日公開)JP 2007-3618 A (published January 11, 2007)

ところで、テレビなどに使用されるカメラ(例えば、USBカメラ及びCCDカメラ)は、実際に撮影することのできる範囲を角度で示す画角が、90°に満たないものが一般的である。このような画角の狭いカメラを使用してユーザを撮影する場合、カメラの画角の範囲内に居ないユーザを撮影するためにカメラを動かす必要がある。しかし、カメラをどのように動かせばよいかは、カメラ又は当該カメラを備えるテレビ等の装置自身は認識することができない。   By the way, as for the camera (for example, USB camera and CCD camera) used for a television etc., the angle of view which shows the range which can be actually image | photographed with an angle is generally less than 90 degrees. When a user is photographed using such a camera having a narrow angle of view, it is necessary to move the camera in order to photograph a user who is not within the range of the angle of view of the camera. However, how to move the camera cannot be recognized by the device itself such as a camera or a television equipped with the camera.

そこで、本発明は、上記の課題を解決するためになされたものであり、カメラ等の撮像部の画角範囲外に被撮像対象がいる場合に撮像部を駆動させて当該被撮像対象を効率よく撮像部の画角の範囲内に収める撮像装置を提供する。   Therefore, the present invention has been made to solve the above-described problem, and when the imaging target is outside the field angle range of the imaging unit such as a camera, the imaging unit is driven to make the imaging target efficient. Provided is an image pickup apparatus that often falls within the range of an angle of view of an image pickup unit.

本発明に係る撮像装置は、上記課題を解決するために、撮影部と、検出可能領域内に人が存在するか否かを検出し、人が存在する場合には当該人の位置を特定する人感センサと、上記撮影部の撮影可能領域が変わるように上記撮影部を駆動させる駆動部と、上記人感センサの検出可能領域内に人が存在すると判定し、かつ当該人が上記撮影部の撮影可能領域内に存在しないと判定したときに、当該人が上記撮影部の撮影可能領域内に存在するように上記駆動部を駆動させる駆動部制御手段と、を備えることを特徴としている。   In order to solve the above-described problem, an imaging apparatus according to the present invention detects an imaging unit and whether or not a person is present in a detectable region, and if a person is present, specifies the position of the person. A human sensor, a driving unit that drives the photographing unit so that a photographing region of the photographing unit is changed, and a person is determined to be present in the detectable region of the human sensor, and the person is the photographing unit Drive unit control means for driving the drive unit so that the person exists in the image capturing region of the image capturing unit when it is determined that the image does not exist in the image capturing region.

上記の構成によれば、上記撮影部の撮影可能領域を移動させることができる。また、上記撮影部の撮影可能領域に存在しない人が、上記人感センサの検出可能領域に存在する場合に、当該人が上記撮影部の撮影可能領域に存在するように上記駆動部を駆動させることができる。これによって、上記撮影部の撮影可能領域外に人が存在する場合に上記撮影部を駆動させて、当該人を効率よく撮影可能領域内に収めることができる。   According to said structure, the imaging | photography possible area | region of the said imaging | photography part can be moved. In addition, when a person who does not exist in the image capturing area of the image capturing unit exists in the area where the human sensor can detect, the driving unit is driven so that the person exists in the image capturing area of the image capturing unit. be able to. Accordingly, when a person exists outside the image capturing area of the image capturing unit, the image capturing unit can be driven so that the person can be efficiently accommodated within the image capturing area.

本発明に係る表示装置は、上記課題を解決するために、撮影部と、検出可能領域内に人が存在するか否かを検出し、人が存在する場合には当該人の位置を特定する人感センサと、上記撮影部の撮影可能領域が変わるように上記撮影部を駆動させる駆動部と、上記人感センサの検出可能領域内に人が存在すると判定し、かつ当該人が上記撮影部の撮影可能領域内に存在しないと判定したときに、当該人が上記撮影部の撮影可能領域内に存在するように上記駆動部を駆動させる駆動部制御手段と、を備えることを特徴としている。   In order to solve the above-described problem, the display device according to the present invention detects whether a person is present in the detection unit and the detectable region, and if there is a person, specifies the position of the person. A human sensor, a driving unit that drives the photographing unit so that a photographing region of the photographing unit is changed, and a person is determined to be present in the detectable region of the human sensor, and the person is the photographing unit Drive unit control means for driving the drive unit so that the person exists in the image capturing region of the image capturing unit when it is determined that the image does not exist in the image capturing region.

上記の構成によれば、上記撮影部の撮影可能領域を移動させることができる。また、上記撮影部の撮影可能領域に存在しない人が、上記人感センサの検出可能領域に存在する場合に、当該人が上記撮影部の撮影可能領域に存在するように上記駆動部を駆動させることができる。これによって、上記撮影部の撮影可能領域外に人が存在する場合に上記撮影部を駆動させて、当該人を効率よく撮影可能領域内に収めることができる。   According to said structure, the imaging | photography possible area | region of the said imaging | photography part can be moved. In addition, when a person who does not exist in the image capturing area of the image capturing unit exists in the area where the human sensor can detect, the driving unit is driven so that the person exists in the image capturing area of the image capturing unit. be able to. Accordingly, when a person exists outside the image capturing area of the image capturing unit, the image capturing unit can be driven so that the person can be efficiently accommodated within the image capturing area.

本発明に係る表示装置は、アプリケーションの実行指示を受け付けたときに、アプリケーションを実行するための設定情報に基づいて当該アプリケーションを実行するアプリケーション制御手段と、上記撮影部が撮像した人の画像から人の顔の特徴を示す情報であるユーザ顔情報を抽出する画像処理手段と、上記撮影部に撮影の指示を送信する撮影制御手段とを更に備え、上記駆動部制御手段は、上記アプリケーション制御手段が上記実行指示を受け付けたときに、上記人感センサの検出可能領域内に存在する人が上記撮影部の撮影可能領域内に存在するように上記撮影部を駆動するものであり、上記撮影制御手段は、予め上記撮影部の撮影可能領域内に存在する人及び上記駆動部を駆動することによって撮影可能領域内に存在することとなった人を撮影するように上記撮影部に撮影させるものであり、上記アプリケーション制御手段は、ユーザ顔情報と設定情報とを関連付けて記憶する記憶部から、上記画像処理手段が抽出したユーザ顔情報に関連付けられている設定情報を取得してアプリケーションを実行するものであることが好ましい。   The display device according to the present invention includes: application control means for executing an application based on setting information for executing the application when receiving an application execution instruction; and a person from an image of the person captured by the imaging unit. Image processing means for extracting user face information, which is information indicating the characteristics of the face, and photographing control means for transmitting a photographing instruction to the photographing section, wherein the drive control means includes the application control means. When the execution instruction is accepted, the photographing unit is driven so that a person existing in the detectable region of the human sensor is present in the photographing region of the photographing unit, and the photographing control unit Is present in the image-capturing area by driving the driver and the driving unit in advance. The application control unit is configured to capture user face information extracted by the image processing unit from a storage unit that stores user face information and setting information in association with each other. It is preferable that the associated setting information is acquired and the application is executed.

上記の構成によれば、上記アプリケーションの実行指示を受けたときに、上記撮影部の撮影可能領域に人が存在するように上記駆動部を駆動させて人を撮影し、撮影された人のユーザ顔情報と関連付けられた上記設定情報、すなわち、撮影部によって撮影された人がアプリケーションを実行するために予め設定した情報に基づいてアプリケーションを実行することができる。これによって、当該人によって上記アプリケーションの実行指示が行われたとき、当該人が設定した設定情報でアプリケーションを実行することができる。また、上記の構成によれば、複数の人を撮影可能である。これによって、複数のユーザが上記人感センサの検出可能領域に存在する場合であっても、撮影された複数のユーザのユーザ顔情報に関連付けられている設定情報を取得することができるため、複数のユーザの設定情報に基づいてアプリケーションを実行することができる。   According to the above configuration, when receiving an instruction to execute the application, the driving unit is driven so that a person is present in the shootable area of the shooting unit, and the person who takes the shot is photographed. The application can be executed based on the setting information associated with the face information, that is, information preset by a person photographed by the photographing unit to execute the application. Thereby, when the execution instruction of the application is given by the person, the application can be executed with the setting information set by the person. Moreover, according to said structure, a some person can be image | photographed. Thereby, even when a plurality of users are present in the detectable region of the human sensor, it is possible to acquire setting information associated with user face information of a plurality of photographed users. The application can be executed based on the setting information of the user.

なお、コンピュータを本発明に係る表示装置の各手段として機能させることを特徴とするプログラム、及び、それらのプログラムを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に含まれる。   Note that a program that causes a computer to function as each unit of the display device according to the present invention and a computer-readable recording medium that records the program are also included in the scope of the present invention.

これにより、カメラの画角の範囲内に居ないユーザにもユーザの利便性を向上させるための機能を提供することができる。   Thereby, the function for improving a user's convenience can be provided also to the user who is not in the range of the view angle of a camera.

本発明の一実施形態に係るテレビの構成を示す上面図である。It is a top view which shows the structure of the television which concerns on one Embodiment of this invention. 図1に示すテレビの構成を示すブロック図である。It is a block diagram which shows the structure of the television shown in FIG. 図1に示すテレビの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the television shown in FIG. 本発明の他の実施形態に係る表示装置の構成を示す上面図である。It is a top view which shows the structure of the display apparatus which concerns on other embodiment of this invention.

<実施形態1>
本発明の一実施形態について、図1から図3を参照して以下に説明する。
<Embodiment 1>
An embodiment of the present invention will be described below with reference to FIGS.

〔テレビの構成〕
図1は、本実施形態に係るテレビ1の構成例を示す上面図である。図1に示すように、テレビ(表示装置)1は、表示部10、カメラ(撮影部)20及び人感センサ30を備えている。また、図1において、H1、H2及びH3は、テレビ1を視聴するユーザ(人)を示す。
[Configuration of TV]
FIG. 1 is a top view illustrating a configuration example of the television 1 according to the present embodiment. As shown in FIG. 1, the television (display device) 1 includes a display unit 10, a camera (imaging unit) 20, and a human sensor 30. In FIG. 1, H 1, H 2, and H 3 indicate users (people) who view the television 1.

表示部10の前面にはディスプレイが設けられており(不図示)、外部から供給されるコンテンツ、テレビ1に内蔵される記憶装置に記憶されているコンテンツなどを表示する。また、表示部10は後述する主制御部100を内蔵している。   A display (not shown) is provided on the front surface of the display unit 10 to display content supplied from the outside, content stored in a storage device built in the television 1, and the like. Further, the display unit 10 incorporates a main control unit 100 described later.

外部から供給されるコンテンツとは、例えば、アナログ放送信号又はデジタル放送信号によって供給されるコンテンツ、テレビ1に接続されたUSBメモリ、SDカード、HDD、DVDプレーヤ/レコーダ、BDプレーヤ/レコーダなどから供給されるコンテンツ、インターネットを介して供給されるコンテンツなどを挙げることができる。   The content supplied from the outside is, for example, content supplied by an analog broadcast signal or a digital broadcast signal, supplied from a USB memory, SD card, HDD, DVD player / recorder, BD player / recorder, etc. connected to the television 1 Content, content supplied via the Internet, and the like.

カメラ20は、テレビ1を視聴するユーザの顔を撮影するための装置である。カメラ20はテレビ1の上面中央に設けられている。カメラ20としては、例えば、USBカメラ、CCDカメラなどを挙げることができる。図1では、カメラ20が実際に撮影することのできる領域(撮影可能領域)を角度で示す画角をφで示している。なお、上述したように、USBカメラ、CCDカメラなどは、画角が90°に満たないものが一般的である。   The camera 20 is a device for photographing the face of the user who views the television 1. The camera 20 is provided at the center of the upper surface of the television 1. Examples of the camera 20 include a USB camera and a CCD camera. In FIG. 1, an angle of view indicating an area (shootable area) that can be actually captured by the camera 20 as an angle is denoted by φ. As described above, USB cameras, CCD cameras and the like generally have an angle of view of less than 90 °.

また、テレビ1はカメラ20の向きを変えるための駆動部21を備えている(後述の図2に示す)。駆動部21によってカメラ20の向きを変えることで、撮影可能領域を変えることができる。これにより、人感センサ30が検出したユーザを撮影することができる。なお、カメラ20は後述するカメラ制御部104から撮影の指示を取得すると撮影を行ない、得た画像情報を画像処理部105に送信する。   The television 1 also includes a drive unit 21 for changing the direction of the camera 20 (shown in FIG. 2 described later). By changing the direction of the camera 20 by the drive unit 21, the shootable area can be changed. Thereby, the user detected by the human sensor 30 can be photographed. Note that the camera 20 performs shooting when it acquires a shooting instruction from a camera control unit 104 described later, and transmits the obtained image information to the image processing unit 105.

人感センサ30は、その検出可能領域内にユーザが存在するか否かを検出し、ユーザが存在する場合にはユーザの位置を特定するセンサである。人感センサ30はテレビ1の上面中央に設けられている。人感センサ30は、例えば、複数の人感センサーデバイスをひとまとまりとして、どの領域に人がいるかを検出可能とした人感センサを挙げることができる(例えば、http://www.tapcorp.com/ten/ten135/TME-2.pdf(2010年5月6日検索)の人感センサシステム等が挙げられる)。図1では、人感センサ30の検出可能領域を示す検出可能領域角をθで示している。また、検出可能領域角θはカメラ20の画角φよりも広いため、人感センサ30は、カメラ20が一度に撮影することのできない範囲に存在するユーザを、検出することができる。なお、人感センサ30がユーザを感知することのできる検出可能領域角θは、カメラ20の画角φよりも広いものが一般的である。このように本発明では、画角の狭い安価なカメラを用いても、人感センサによって、広い範囲に存在するユーザを効率よく撮影できるので、ユーザを撮影等して実行するアプリケーションを実装した表示装置を安価に提供することができる。   The human sensor 30 is a sensor that detects whether or not a user exists within the detectable region, and identifies the position of the user when the user exists. The human sensor 30 is provided at the center of the upper surface of the television 1. The human sensor 30 can be, for example, a human sensor that makes it possible to detect in which region a person is present by collecting a plurality of human sensor devices (for example, http://www.tapcorp.com). /ten/ten135/TME-2.pdf (searched on May 6, 2010). In FIG. 1, the detectable area angle indicating the detectable area of the human sensor 30 is indicated by θ. In addition, since the detectable area angle θ is wider than the angle of view φ of the camera 20, the human sensor 30 can detect a user who exists in a range where the camera 20 cannot photograph at a time. In general, the detectable area angle θ at which the human sensor 30 can sense the user is wider than the angle of view φ of the camera 20. As described above, in the present invention, even if an inexpensive camera with a narrow angle of view is used, a human sensor can efficiently shoot a user in a wide range. The apparatus can be provided at low cost.

なお、人感センサ30は、テレビ1の他の部材とは独立して、電源のON、OFFを切り替えることができるように設定されていてもよい。電源のON、OFFの切り替えは、ユーザ操作によって直接行なわれてもよく、実行されるアプリケーションに応じて自動的に行われてもよい。   The human sensor 30 may be set so that the power can be switched on and off independently of the other members of the television 1. Switching between power ON and OFF may be performed directly by a user operation, or may be automatically performed according to an application to be executed.

テレビ1はカメラ20及び人感センサ30を共に備えることによって、広い範囲のユーザを撮影することができる。   The television 1 includes both the camera 20 and the human sensor 30 so that a wide range of users can be photographed.

例えば、人感センサ30及び駆動部が備えられていない場合には、カメラ20の画角φの範囲に存在するユーザH1のみしか撮影することができない。しかし、人感センサ30及び駆動部が備えられていることにより、ユーザH2、H3の存在を人感センサ30が検出して位置を特定し、特定した位置がカメラ20の画角φの範囲内に収まるように駆動部がカメラ20の向きを変えることができるため、カメラ20はユーザH2、H3を撮影することができる。   For example, when the human sensor 30 and the drive unit are not provided, only the user H1 existing in the range of the field angle φ of the camera 20 can be photographed. However, since the human sensor 30 and the drive unit are provided, the human sensor 30 detects the presence of the users H2 and H3 and specifies the position, and the specified position is within the range of the field angle φ of the camera 20. Since the drive unit can change the direction of the camera 20 so as to be within the range, the camera 20 can photograph the users H2 and H3.

これにより、カメラ20にて撮影したユーザの画像データを用いて、ユーザに提供されるアプリケーションを、ユーザH1だけでなく、ユーザH2、H3にも提供することができるようになる。   Thereby, the application provided to the user can be provided not only to the user H1 but also to the users H2 and H3 using the image data of the user photographed by the camera 20.

(ユーザを特定するための構成)
続いて、テレビ1の構成について、図2を参照して説明する。図2は、テレビ1の構成を示すブロック図である。
(Configuration for identifying users)
Next, the configuration of the television 1 will be described with reference to FIG. FIG. 2 is a block diagram showing the configuration of the television 1.

テレビ1は、図2に示すように、カメラ20、駆動部21、人感センサ30、記憶部40及び主制御部100を備えている。   As shown in FIG. 2, the television 1 includes a camera 20, a drive unit 21, a human sensor 30, a storage unit 40, and a main control unit 100.

駆動部21は、カメラ20の撮影可能領域が変わるようにカメラ20を駆動させる機構である。   The drive unit 21 is a mechanism that drives the camera 20 so that the shootable area of the camera 20 changes.

記憶部40はユーザ情報を記憶する。ユーザ情報には、例えば、テレビ1を利用するユーザの名前(ユーザ名)、カメラ20で撮影されたユーザの画像情報から抽出された目じり、眉の位置などユーザの顔の特徴を示すユーザ顔情報などが含まれる。なお、ユーザ顔情報は、目じり、眉の位置などの顔の特徴を示す情報に限定されず、ユーザの顔の特徴を示す情報であればよい。また、記憶部40は、テレビ1において利用可能なアプリケーションを予め記憶している。また、記憶部40には、ユーザ登録部(不図示)によって、ユーザ情報と、アプリケーションを実行させるためにユーザが独自に設定したユーザ特有設定(設定情報)とが関連付けられて記憶される。つまり、記憶部40においてユーザ顔情報はユーザ特有設定に関連付けられている。   The storage unit 40 stores user information. The user information includes, for example, the name of the user who uses the television 1 (user name), the user face information indicating the features of the user's face, such as the eyes extracted from the image information of the user photographed by the camera 20 and the position of the eyebrows. Etc. are included. Note that the user face information is not limited to information indicating facial features such as the eyes and the position of the eyebrows, and may be information indicating the facial features of the user. In addition, the storage unit 40 stores applications that can be used in the television 1 in advance. The storage unit 40 stores user information and user-specific settings (setting information) uniquely set by the user to execute the application by a user registration unit (not shown) in association with each other. That is, the user face information is associated with the user-specific setting in the storage unit 40.

主制御部100は、テレビ1の各種構成を統括的に制御するものである。また、主制御部100は、ユーザ指示取得部101、アプリケーション制御部102、人感センサ制御部103、カメラ制御部104(駆動部制御手段、撮影制御手段)及び画像処理部105を備えている。   The main control unit 100 comprehensively controls various configurations of the television 1. The main control unit 100 includes a user instruction acquisition unit 101, an application control unit 102, a human sensor control unit 103, a camera control unit 104 (a drive unit control unit and a photographing control unit), and an image processing unit 105.

ユーザ指示取得部101は、リモートコントローラ(不図示)又はテレビ1に備えられた操作部(不図示)を操作することによって行なわれるユーザからの指示(ユーザ指示)を受け付け、受け付けたユーザ指示の内容によってユーザ指示の供給先を決定する手段である。ユーザ指示取得部101は、例えば、取得したユーザ指示がアプリケーションの実行指示である場合、アプリケーション制御部102に実行指示を供給する。また、ユーザ指示取得部101はリモートコントローラ又は操作部を介してユーザ特有設定を取得する。ユーザはアプリケーションを実行する際のユーザ特有設定をリモートコントローラ又は操作部に入力する。ユーザ指示取得部101はユーザ特有設定を取得して、ユーザ登録部に供給する。一方で、ユーザはユーザ特有設定を入力する際に併せて自分がどのユーザ情報に対応するユーザであるかも入力する。そのユーザ情報をユーザ登録部は取得して、当
該ユーザ特有設定とユーザ情報とを関連付けて記憶部40に記憶する。これによりユーザ特有設定とユーザ顔情報とが関連付けられる。
The user instruction acquisition unit 101 receives an instruction (user instruction) from a user performed by operating a remote controller (not illustrated) or an operation unit (not illustrated) provided in the television 1, and contents of the received user instruction To determine the supply destination of the user instruction. For example, when the acquired user instruction is an application execution instruction, the user instruction acquisition unit 101 supplies an execution instruction to the application control unit 102. The user instruction acquisition unit 101 acquires user-specific settings via a remote controller or an operation unit. The user inputs user-specific settings for executing the application to the remote controller or the operation unit. The user instruction acquisition unit 101 acquires user-specific settings and supplies them to the user registration unit. On the other hand, when the user inputs user-specific settings, the user also inputs which user information the user corresponds to. The user registration unit acquires the user information, and stores the user-specific setting and the user information in the storage unit 40 in association with each other. As a result, the user-specific setting is associated with the user face information.

アプリケーション制御部102は、ユーザ指示取得部101からアプリケーションの実行指示を取得したときに、実行指示によって指定されたアプリケーションを実行する手段である。また、アプリケーション制御部102は、画像処理部105から取得したユーザ顔情報に基づいて、ユーザの顔認証を行う。これにより、カメラで撮影されたユーザに対応するユーザ顔情報が記憶部40に記憶されているユーザ顔情報の中から選択される。なお、顔認証の具体的な処理については後述する。つまり、アプリケーション制御部102は、顔認証の結果、記憶部40に記憶されているユーザ顔情報の中の一つのユーザ顔情報に関連付けられているユーザ特有設定を取得して、当該ユーザ特有設定に基づいてアプリケーションを実行する。   The application control unit 102 is a unit that executes the application specified by the execution instruction when the application execution instruction is acquired from the user instruction acquisition unit 101. Further, the application control unit 102 performs user face authentication based on the user face information acquired from the image processing unit 105. Thereby, user face information corresponding to the user photographed by the camera is selected from the user face information stored in the storage unit 40. Note that specific processing of face authentication will be described later. That is, as a result of the face authentication, the application control unit 102 acquires a user-specific setting associated with one user face information stored in the storage unit 40, and sets the user-specific setting as the user-specific setting. Run the application based on.

人感センサ制御部103は、テレビ1の他の部材とは独立して、ユーザの位置の特定に必要な人感センサ30の電源をONにし、ユーザの位置の特定に必要でない人感センサ30をOFFにする手段である。人感センサ30が複数の場合には、人感センサ制御部103は、それぞれの人感センサ30に対して個別にON、OFFを制御することが可能であってもよい。   The human sensor control unit 103 turns on the human sensor 30 necessary for specifying the user's position independently of the other members of the television 1, and the human sensor 30 not required for specifying the user's position. Is a means to turn OFF. When there are a plurality of human sensors 30, the human sensor control unit 103 may be able to individually control ON and OFF for each human sensor 30.

カメラ制御部104は、人感センサ30の検出可能領域に存在するユーザがカメラ20の撮影可能領域内に存在しないときに、人感センサ30の検出可能領域に存在するユーザがカメラ20の撮影可能領域内に存在するように駆動部21を駆動させる手段である。また、カメラ制御部104は、カメラ20に撮影の指示を送信するものであり、また、予めカメラ20の撮影可能領域に存在するユーザ、及び、駆動部21を駆動することによって撮影可能領域に存在することとなったユーザをカメラ20に撮影させる手段である。   The camera control unit 104 allows the user present in the detectable area of the human sensor 30 to photograph the camera 20 when the user present in the detectable area of the human sensor 30 does not exist in the imageable area of the camera 20. This is means for driving the drive unit 21 so as to exist in the region. In addition, the camera control unit 104 transmits a shooting instruction to the camera 20, and also exists in a shootable region by driving the drive unit 21 in advance and a user existing in the shootable region of the camera 20. This is means for causing the camera 20 to photograph the user who has decided to do so.

また、カメラ制御部104による駆動部21の駆動は、カメラ20によって、人感センサ30が検出したユーザの全てが撮影されるまで繰り返される。具体的には、人感センサ30によって検出された、人感センサ30の検出可能領域であって、カメラ20の撮影可能領域外の領域に存在するユーザの人数を、カメラ制御部104は一時的に記憶する。次にカメラ制御部104は、駆動部21を駆動させて、撮影可能領域内にユーザが存在するようになる毎にカメラ20に撮影指示を送信する。カメラ20は、撮影指示を取得する毎にユーザを撮影する。カメラ制御部104は、カメラ20が撮影した人数を、別途、一時的に記憶する。カメラ制御部104及びカメラ20は、この撮影した人数と最初に記憶したユーザの人数とを照合して、一致するまで、駆動から撮影までの操作を繰り返す。これによりカメラ20によって、人感センサ30が検出したユーザの全てを検出する。なお、駆動部21は、過去に人を検出した領域がカメラ20の撮像範囲に含まれるように常に駆動して画像撮影するようにして、過去に人を検出していない領域については人感センサ30によって検出するようにしてもよい。   The driving of the driving unit 21 by the camera control unit 104 is repeated until all of the users detected by the human sensor 30 are photographed by the camera 20. Specifically, the camera control unit 104 temporarily determines the number of users that are detected by the human sensor 30 and that are in a region that can be detected by the human sensor 30 and outside the image capturing region of the camera 20. To remember. Next, the camera control unit 104 drives the drive unit 21 to transmit a shooting instruction to the camera 20 every time a user comes within the imageable area. The camera 20 shoots the user every time a shooting instruction is acquired. The camera control unit 104 temporarily stores the number of people photographed by the camera 20 separately. The camera control unit 104 and the camera 20 collate the number of photographed people with the number of users stored first, and repeat the operations from driving to photographing until they match. As a result, all the users detected by the human sensor 30 are detected by the camera 20. Note that the drive unit 21 always drives and shoots an image so that an area in which a person has been detected in the past is included in the imaging range of the camera 20, and a human sensor for an area in which no person has been detected in the past 30 may be detected.

画像処理部105は、カメラ20から供給されたユーザの画像情報から、ユーザの目じり、眉の位置などユーザの顔の特徴を示すユーザ顔情報を抽出する手段である。なお、ユーザ顔情報は、目じり、眉の位置などユーザの顔の特徴を示す情報に限定されず、ユーザの顔の特徴を示す情報であればよい。   The image processing unit 105 is a means for extracting user face information indicating features of the user's face such as the user's eyes and eyebrow position from the user's image information supplied from the camera 20. Note that the user face information is not limited to information indicating the user's face characteristics such as the eyes and the position of the eyebrows, and may be information indicating the user's face characteristics.

(顔認証)
次に、アプリケーション制御部102における顔認証の処理について説明する。
(Face recognition)
Next, face authentication processing in the application control unit 102 will be described.

画像処理部105は、カメラ20から供給されたユーザの画像情報を取得すると、ユーザの画像情報からユーザ顔情報を抽出し、アプリケーション制御部102に抽出したユー
ザ顔情報を供給する。
When acquiring the user image information supplied from the camera 20, the image processing unit 105 extracts the user face information from the user image information and supplies the extracted user face information to the application control unit 102.

アプリケーション制御部102は、取得したユーザ顔情報と、記憶部40に記憶されている全てのユーザ情報に含まれるユーザ顔情報とを照合する。なお、この照合方法は公知であるので、その説明を省略する。照合した結果、記憶部40に記憶されているユーザ顔情報の何れかと、画像処理部105から取得したユーザ顔情報との一致率が予め定められた値よりも高い(一致率が高い)場合、アプリケーション制御部102は、一致率が高いユーザ顔情報に関連付けて記憶されているユーザ特有設定を記憶部40から読み出す。アプリケーション制御部102は、読み出したユーザ特有設定に基づいてアプリケーションを実行する。   The application control unit 102 collates the acquired user face information with user face information included in all user information stored in the storage unit 40. In addition, since this collation method is well-known, the description is abbreviate | omitted. As a result of the collation, when the matching rate between any of the user face information stored in the storage unit 40 and the user face information acquired from the image processing unit 105 is higher than a predetermined value (the matching rate is high), The application control unit 102 reads from the storage unit 40 user-specific settings stored in association with user face information having a high matching rate. The application control unit 102 executes the application based on the read user-specific setting.

また、テレビ1を視聴しているユーザが複数存在する場合、アプリケーション制御部102は、それぞれのユーザ情報に関連付けられているアプリケーションのユーザ特有設定を読み出す。なお、記憶部40に記憶されているユーザ情報には、予め優先度が設定されていてもよい。予め優先度が設定されている場合、アプリケーション制御部102は、記憶部40から読み出した複数のユーザ特有設定のうち、最も優先度の高いユーザ情報に関連付けられているユーザ特有設定に基づいてアプリケーションを実行すればよい。   When there are a plurality of users who are watching the television 1, the application control unit 102 reads the user-specific settings of the application associated with each user information. The user information stored in the storage unit 40 may have a priority set in advance. When the priority is set in advance, the application control unit 102 selects an application based on the user-specific setting associated with the user information having the highest priority among the plurality of user-specific settings read from the storage unit 40. Just do it.

なお、本実施形態では、テレビ1を視聴しているユーザが複数存在する場合に、最も優先度の高いユーザ情報に関連付けられているユーザ特有設定に基づいてアプリケーションを実行する構成を示すが、本発明はこれに限定されるものではない。   In the present embodiment, when there are a plurality of users who are watching the television 1, a configuration is shown in which an application is executed based on user-specific settings associated with user information having the highest priority. The invention is not limited to this.

例えば、記憶部40から読み出した複数のユーザ特有設定のそれぞれに基づいて、順にアプリケーションを実行する構成としてもよい。また、記憶部40から読み出した複数のユーザ特有設定のうち、少なくとも2つ以上のユーザ特有設定において共通して設定されている設定のみに基づいてアプリケーションを実行する構成を採用してもよいし、読み出した複数のユーザ特有設定が数値又はレベルで表される場合には、その設定値を平均した値でアプリケーションを実行する構成などを採用することもできる。   For example, it is good also as a structure which performs an application in order based on each of several user specific setting read from the memory | storage part 40. FIG. Further, among the plurality of user-specific settings read from the storage unit 40, a configuration may be adopted in which the application is executed based only on settings that are set in common in at least two or more user-specific settings. When a plurality of read user-specific settings are represented by numerical values or levels, a configuration in which an application is executed with an average of the setting values can be adopted.

また、記憶部40から読み出した複数のユーザ特有設定に関連付けられたユーザ情報のそれぞれに関連付けられているユーザ名を表示部10に表示させることによって、どのユーザが設定したユーザ特有設定に基づいてアプリケーションを実行するかを選択することができる構成を採用することもできる。   In addition, by displaying the user name associated with each of the user information associated with the plurality of user-specific settings read from the storage unit 40 on the display unit 10, the application is based on the user-specific settings set by which user. It is also possible to adopt a configuration in which it is possible to select whether to execute.

(カメラ及び人感センサの動作)
次に、図3を参照してテレビ1の動作について説明する。図3は、テレビ1の動作を示すフローチャートである。
(Operation of camera and motion sensor)
Next, the operation of the television 1 will be described with reference to FIG. FIG. 3 is a flowchart showing the operation of the television 1.

図3に示すように、ユーザによって、ユーザの撮影を必要とするアプリケーションを実行することが選択されると(ステップS1)、ユーザ指示取得部101は、アプリケーション制御部102に、ユーザの撮影を必要とするアプリケーションの実行指示を供給する。   As shown in FIG. 3, when the user selects to execute an application that requires user shooting (step S1), the user instruction acquisition unit 101 requires the application control unit 102 to perform user shooting. The application execution instruction is supplied.

実行指示を取得したアプリケーション制御部102は、ユーザの特定に必要な人感センサ30の電源をONにするように人感センサ制御部103に通知し、人感センサ制御部103は、ユーザの特定に必要な人感センサ30の電源をONにする。人感センサ30は、テレビ1を視聴しているユーザのそれぞれの位置を特定し(ステップS2)、特定したユーザの位置をカメラ制御部104に供給する。   The application control unit 102 that has acquired the execution instruction notifies the human sensor control unit 103 to turn on the human sensor 30 necessary for specifying the user, and the human sensor control unit 103 specifies the user. The human sensor 30 necessary for the operation is turned on. The human sensor 30 identifies each position of the user who is viewing the television 1 (step S2), and supplies the identified position of the user to the camera control unit 104.

カメラ制御部104は、まず、予め撮影可能領域にユーザが存在する場合、カメラ20
の向きを変更させることなく撮影指示をカメラ20に送信し、カメラ20は撮影を行う。なお、予め撮影可能領域にユーザが存在するか否かは、カメラ20が認識してもよいし、撮影可能領域と人感センサ30の検出可能領域とが重複している場合は人感センサ30によって認識してもよい。次に、撮影可能領域の範囲外に人感センサ30がユーザを検出した場合、人感センサ30によって検出されたユーザがカメラ20の撮影可能領域に存在するように、駆動部21を駆動させることでカメラ20の向きを変更する。そして、駆動部21を駆動することによって撮影可能領域に存在することとなったユーザをカメラ20に撮影させる。カメラ20は、撮影したユーザの画像を画像処理部105に供給する(ステップS3)。
The camera control unit 104 first determines that the camera 20 when the user is present in advance in the imageable area.
The shooting instruction is transmitted to the camera 20 without changing the orientation of the camera 20, and the camera 20 performs shooting. It should be noted that whether or not the user exists in advance in the shootable area may be recognized by the camera 20, or if the shootable area and the detectable area of the human sensor 30 overlap, the human sensor 30. You may recognize by. Next, when the human sensor 30 detects the user outside the range of the shootable area, the driving unit 21 is driven so that the user detected by the human sensor 30 exists in the shootable area of the camera 20. To change the direction of the camera 20. Then, by driving the drive unit 21, the camera 20 is caused to photograph the user who has existed in the photographable area. The camera 20 supplies the captured user image to the image processing unit 105 (step S3).

画像処理部105は、取得したユーザの画像情報からユーザ顔情報を抽出し、抽出したユーザ顔情報をアプリケーション制御部102に供給する。アプリケーション制御部102は、ユーザの顔認証を行う。具体的には記憶部40に記憶されている全てのユーザ情報の中から、供給されたユーザ顔情報との一致率が高いユーザ顔情報を含むユーザ情報を選択する(ステップS4)。   The image processing unit 105 extracts user face information from the acquired user image information, and supplies the extracted user face information to the application control unit 102. The application control unit 102 performs user face authentication. Specifically, user information including user face information having a high matching rate with the supplied user face information is selected from all user information stored in the storage unit 40 (step S4).

カメラ制御部104は、カメラ20が人感センサ30によって検出された全てのユーザを撮影したか否かを判定する(ステップS5)。人感センサ30によって検出された全てのユーザを撮影していないと判定した場合(ステップS5においてNO)、カメラ制御部104は、撮影されていないユーザを撮影することができるようにカメラ20の駆動部21を駆動させる。カメラ20は、駆動部21を駆動したことによって撮影可能領域に存在することとなったユーザを、カメラ制御部104からの指示に基づいて撮影する。すなわち、全てのユーザが撮影されるまでステップS3〜S5が繰り返される。   The camera control unit 104 determines whether or not the camera 20 has photographed all the users detected by the human sensor 30 (step S5). If it is determined that all the users detected by the human sensor 30 have not been photographed (NO in step S5), the camera control unit 104 drives the camera 20 so as to photograph a user who has not been photographed. The unit 21 is driven. The camera 20 shoots a user who is present in the shootable area by driving the drive unit 21 based on an instruction from the camera control unit 104. That is, steps S3 to S5 are repeated until all users are photographed.

人感センサ30によって検出された全てのユーザを撮影したと判定した場合(ステップS4においてYES)、カメラ制御部104は、アプリケーション制御部102に全てのユーザを撮影した旨を通知する。アプリケーション制御部102は、ユーザによって選択されたアプリケーションを記憶部40から読み出し、画像処理部105から供給されたユーザ顔情報との一致率が高いユーザ顔情報を含むユーザ情報に関連付けられたユーザ特有設定に基づいて実行する(ステップS6)。   If it is determined that all users detected by the human sensor 30 have been photographed (YES in step S4), the camera control unit 104 notifies the application control unit 102 that all users have been photographed. The application control unit 102 reads the application selected by the user from the storage unit 40, and sets user-specific settings associated with user information including user face information having a high matching rate with the user face information supplied from the image processing unit 105. (Step S6).

なお、本実施形態では、ユーザの撮影を必要とするアプリケーションが選択されたときに、人感センサ制御部103がユーザの特定に必要な人感センサ30の電源をONにする構成を示したが、本発明はこれに限定されるものではなく、例えば、人感センサの電源をONにしたままで、ユーザの特定を必要とするアプリケーションが選択されたときに限って、ユーザの位置を示す情報を人感センサ30から取得するする構成としてもよい。また、ユーザの特定を必要とするアプリケーションが選択されるか否かに係わらず、人感センサの電源をONにしたままで、ユーザの位置を示す情報を常に人感センサ30から取得し続ける構成としてもよい。   In the present embodiment, the configuration is shown in which the human sensor control unit 103 turns on the human sensor 30 necessary for specifying the user when an application that requires user shooting is selected. The present invention is not limited to this. For example, the information indicating the position of the user only when an application that requires the user's identification is selected while the human sensor is kept on. May be obtained from the human sensor 30. In addition, regardless of whether or not an application that requires the user's identification is selected, the information indicating the position of the user is continuously acquired from the human sensor 30 while the human sensor is turned on. It is good.

(アプリケーション)
アプリケーションの一例として、お好み画質表示を行うアプリケーションを挙げることができる。
(application)
An example of an application is an application that displays a favorite image quality.

お好み画質表示を行うアプリケーションとは、テレビ1を視聴するユーザのユーザ情報と、そのユーザが好む画質で映像を表示するための画質設定値(設定情報)とを記憶させておき、カメラ20によって撮影されたユーザの画像情報から抽出したユーザ顔情報と、記憶されているユーザ顔情報との一致率が高い場合に、そのユーザが好む画質で映像を表示することを可能にするアプリケーションである。   The application for displaying the preferred image quality display stores the user information of the user who views the television 1 and the image quality setting value (setting information) for displaying the video with the image quality preferred by the user. This is an application that makes it possible to display a video with an image quality preferred by the user when the matching rate between the user face information extracted from the image information of the photographed user and the stored user face information is high.

例えば、ユーザによってお好み画質表示を行うアプリケーションが選択され、顔認証によって複数のユーザが特定された場合、特定されたそれぞれのユーザのユーザ顔情報に関連付けられており、お好み画質表示を行うアプリケーションに関するユーザ特有設定である画質設定値を記憶部40から読み出す。読み出された画質設定値に関連付けられているユーザ情報に優先度が設定されている場合、アプリケーション制御部102は、最も高い優先度が設定されているユーザ情報中のユーザ顔情報に関連付けられている画質設定値に基づいて画質を調整する。また、優先度が設定されているか否かに係わらず、特定された全てのユーザの画質設定値を平均した値に基づいて画質を調整する構成を採用してもよい。   For example, when an application that displays a favorite image quality is selected by the user and a plurality of users are specified by face authentication, the application that displays the favorite image quality is associated with the user face information of each specified user. The image quality setting value that is the user-specific setting for the image is read from the storage unit 40. When the priority is set in the user information associated with the read image quality setting value, the application control unit 102 associates with the user face information in the user information in which the highest priority is set. The image quality is adjusted based on the existing image quality setting value. Further, a configuration may be adopted in which the image quality is adjusted based on a value obtained by averaging the image quality setting values of all the specified users regardless of whether or not the priority is set.

また、アプリケーションの他の一例として、テレビ1を視聴するユーザのユーザ情報と、そのユーザが好む画質映像を表示するための画質調整値(設定情報)及びそのユーザが頻繁に視聴する番組である常連番組(設定情報)とを記憶させておき、カメラ20によって撮影された複数のユーザの画質設定を反映した映像を一定時間毎に切り替えて表示するアプリケーション、及び、それぞれのユーザが頻繁に視聴している番組を、テレビ1の画面を分割して各々表示する、画面分割表示を行うアプリケーションを挙げることもできる。   Further, as another example of the application, user information of a user who views the TV 1, an image quality adjustment value (setting information) for displaying the image quality preferred by the user, and a program frequently viewed by the user An application that stores programs (setting information) and displays images reflecting the image quality settings of a plurality of users captured by the camera 20 at regular intervals, and each user frequently views An application for performing screen division display, in which a program on the television 1 is divided and displayed, respectively, can be cited.

例えば、ユーザによって画面分割表示を行うアプリケーションが選択され、顔認証によって複数のユーザが特定された場合、特定されたそれぞれのユーザのユーザ顔情報に関連付けられており、画面分割表示を行うアプリケーションに関するユーザ特有設定である画質調整値及び常連番組を記憶部40から読み出す。アプリケーション制御部102は、読み出されたそれぞれの画質調整値に応じて画質を調整した常連番組の映像を、テレビ1を視聴しているユーザの人数で分割されたテレビ1の画面の各領域に各々表示する。   For example, when an application that performs split screen display is selected by the user and a plurality of users are identified by face authentication, the user related to the application that performs split screen display is associated with the user face information of each identified user. The image quality adjustment value and the regular program, which are unique settings, are read from the storage unit 40. The application control unit 102 displays the video of the regular program whose image quality is adjusted according to each read image quality adjustment value in each area of the screen of the television 1 divided by the number of users viewing the television 1. Display each one.

さらに、特開2009−267445号公報に記載されているアプリケーションも、一例として挙げることができる。   Furthermore, the application described in JP2009-267445A can be given as an example.

なお、本実施形態では、人感センサ30が1つ配置されている場合について説明したが、本発明はこれに限定されるものではなく、人感センサ30が1つ以上配置されていればよく、例えば、人感センサ30が2つ配置されていてもよい。人感センサ30が2つ配置されている場合について、図面を変えて以下に説明する。   In addition, although this embodiment demonstrated the case where the one human sensitive sensor 30 was arrange | positioned, this invention is not limited to this, What is necessary is just one or more human sensitive sensors 30 arrange | positioned. For example, two human sensors 30 may be arranged. The case where two human sensors 30 are arranged will be described below with different drawings.

<実施形態2>
本発明の他の実施形態について、図4を参照して以下に説明する。なお、説明の便宜上、実施形態1に係る構成要素と同様の機能を有する構成要素には同一の番号を付し、その説明を省略する。本実施形態では、主に、実施形態1との相違点について説明するものとする。
<Embodiment 2>
Another embodiment of the present invention will be described below with reference to FIG. For convenience of explanation, constituent elements having the same functions as those of the constituent elements according to the first embodiment are denoted by the same reference numerals, and description thereof is omitted. In the present embodiment, differences from the first embodiment will be mainly described.

図4は、本実施形態に係るテレビ2の他の実施形態を示す上面図である。図4に示すように、テレビ2は、人感センサ30の代わりに人感センサ30a、30bを備えていること以外は実施形態1のテレビ1と同じ構成である。   FIG. 4 is a top view showing another embodiment of the television 2 according to this embodiment. As shown in FIG. 4, the television 2 has the same configuration as the television 1 of the first embodiment except that it includes human sensors 30 a and 30 b instead of the human sensor 30.

人感センサ30a、30bは、周囲にユーザが存在するか否かを検出し、ユーザが存在する場合には周囲のどの位置にユーザが存在するかを特定するセンサである。図4に示すように、人感センサ30a、30bはテレビ2の上面両端に設けられている。図4では、人感センサ30aの検出可能領域を示す検出可能領域角をθaで示し、人感センサ30bの検出可能領域角をθbで示している。また、人感センサ30a、30bの検出可能領域は、予めカメラ20が撮影可能領域としていない領域に存在するユーザを検知することができるように設けられている。これにより、人感センサ30a、30bは、カメラ20が
一度に撮影することのできない範囲に存在するユーザを検出することができる。このように本発明では、画角の狭い安価なカメラを用いても、人感センサによって、広い範囲に存在するユーザを効率よく撮影できるので、ユーザを撮影等して実行するアプリケーションを実装した表示装置を安価に提供することができる。
The human sensors 30a and 30b are sensors that detect whether or not a user is present in the surroundings, and if the user is present, specify which position in the surrounding the user is present. As shown in FIG. 4, the human sensors 30 a and 30 b are provided at both ends of the upper surface of the television 2. In FIG. 4, the detectable area angle indicating the detectable area of the human sensor 30a is indicated by θa, and the detectable area angle of the human sensor 30b is indicated by θb. In addition, the detectable regions of the human sensors 30a and 30b are provided so as to be able to detect a user who is present in an area that the camera 20 does not previously set as an imageable area. Thereby, human sensor 30a, 30b can detect the user who exists in the range which the camera 20 cannot image | photograph at once. As described above, in the present invention, even if an inexpensive camera with a narrow angle of view is used, a human sensor can efficiently shoot a user in a wide range. The apparatus can be provided at low cost.

なお、人感センサ30a、30bは、テレビ2の他の部材とは独立して、電源のON、OFFを切り替えることができるように設定されていてもよい。電源のON、OFFの切り替えは、ユーザ操作によって直接行なわれてもよく、実行されるアプリケーションに応じて自動的に行われてもよい。   The human sensors 30a and 30b may be set so that the power can be switched on and off independently of the other members of the television 2. Switching between power ON and OFF may be performed directly by a user operation, or may be automatically performed according to an application to be executed.

〔プログラム及び記録媒体〕
最後に、テレビ1の主制御部100は、ハードウェアロジックによって構成すればよい。または、次のように、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Program and recording medium]
Finally, the main control unit 100 of the television 1 may be configured by hardware logic. Alternatively, it may be realized by software using a CPU (Central Processing Unit) as follows.

すなわち、テレビ1の主制御部100は、各機能を実現するプログラムの命令を実行するCPU、このプログラムを格納したROM(Read Only Memory)、上記プログラムを実行可能な形式に展開するRAM(Random Access Memory)、及び、上記プログラム及び各種データを格納するメモリ等の記憶装置(記録媒体)を備えている。この構成により、本発明の目的は、所定の記録媒体によっても、達成できる。   That is, the main control unit 100 of the television 1 includes a CPU that executes program instructions for realizing each function, a ROM (Read Only Memory) that stores the program, and a RAM (Random Access) that expands the program into an executable format. Memory) and a storage device (recording medium) such as a memory for storing the program and various data. With this configuration, the object of the present invention can be achieved by a predetermined recording medium.

この記録媒体は、上述した各機能を実現する制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録していればよい。これにより、主制御部100(またはCPUやMPU)が、供給された記録媒体に記録されているプログラムコードを読み出し、実行すればよい。   The recording medium only needs to record the program code (execution format program, intermediate code program, source program) of the control program that realizes each function described above so that it can be read by a computer. Thus, the main control unit 100 (or CPU or MPU) may read and execute the program code recorded on the supplied recording medium.

プログラムコードを主制御部100に供給する記録媒体は、特定の構造または種類のものに限定されない。すなわちこの記録媒体は、たとえば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などとすることができる。   The recording medium that supplies the program code to the main controller 100 is not limited to a specific structure or type. That is, the recording medium includes, for example, a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. System, a card system such as an IC card (including a memory card) / optical card, or a semiconductor memory system such as a mask ROM / EPROM / EEPROM / flash ROM.

また、テレビ1は通信ネットワークと接続可能に構成されているため、上記のプログラムコードを、通信ネットワークを介してテレビ1に供給することができる。この通信ネットワークはテレビ1にプログラムコードを供給できるものであればよく、特定の種類または形態に限定されない。たとえばインターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等であればよい。   Further, since the television 1 is configured to be connectable to a communication network, the program code can be supplied to the television 1 via the communication network. This communication network is not limited to a specific type or form as long as it can supply program codes to the television 1. For example, it may be the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication network, and the like.

この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な任意の媒体であればよく、特定の構成または種類のものに限定されない。たとえばIEEE1394、USB(Universal Serial Bus)、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, wired communication such as IEEE 1394, USB (Universal Serial Bus), power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), 802.11 It can also be used by radio such as radio, HDR, mobile phone network, satellite line, terrestrial digital network. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

なお、本発明は上述した本実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。   In addition, this invention is not limited to this embodiment mentioned above, A various change is possible in the range shown to the claim.

本発明は、人感センサ及びカメラを備えたテレビなどの装置に好適に利用することができる。   The present invention can be suitably used for an apparatus such as a television equipped with a human sensor and a camera.

1、2 テレビ
10 表示部
20 カメラ(撮影部)
21 駆動部
30、30a、30b 人感センサ
40 記憶部
100 主制御部
101 ユーザ指示取得部
102 アプリケーション制御部(アプリケーション制御手段)
103 人感センサ制御部
104 カメラ制御部(駆動部制御手段、撮影制御手段)
105 画像処理部(画像処理手段)
1, 2 TV 10 Display unit 20 Camera (shooting unit)
21 drive unit 30, 30a, 30b human sensor 40 storage unit 100 main control unit 101 user instruction acquisition unit 102 application control unit (application control means)
103 Human sensor control unit 104 Camera control unit (drive unit control means, photographing control means)
105 Image processing unit (image processing means)

Claims (5)

撮影部と、
検出可能領域内に人が存在するか否かを検出し、人が存在する場合には当該人の位置を特定する人感センサと、
上記撮影部の撮影可能領域が変わるように上記撮影部を駆動させる駆動部と、
上記人感センサの検出可能領域内に人が存在すると判定し、かつ当該人が上記撮影部の撮影可能領域内に存在しないと判定したときに、当該人が上記撮影部の撮影可能領域内に存在するように上記駆動部を駆動させる駆動部制御手段と、
を備えることを特徴とする撮像装置。
A shooting section;
A human sensor that detects whether or not a person is present in the detectable region, and identifies the position of the person if a person exists;
A drive unit that drives the imaging unit so that a shootable area of the imaging unit changes;
When it is determined that there is a person within the detectable area of the human sensor and the person is not present within the imageable area of the imaging unit, the person is within the imageable area of the imaging unit. Drive unit control means for driving the drive unit to exist,
An imaging apparatus comprising:
撮影部と、
検出可能領域内に人が存在するか否かを検出し、人が存在する場合には当該人の位置を特定する人感センサと、
上記撮影部の撮影可能領域が変わるように上記撮影部を駆動させる駆動部と、
上記人感センサによる検出可能領域内に人が存在すると判定し、かつ当該人が上記撮影部の撮影可能領域内に存在しないと判定したときに、当該人が上記撮影部の撮影可能領域内に存在するように上記駆動部を駆動させる駆動部制御手段と、
を備えることを特徴とする表示装置。
A shooting section;
A human sensor that detects whether or not a person is present in the detectable region, and identifies the position of the person if a person exists;
A drive unit that drives the imaging unit so that a shootable area of the imaging unit changes;
When it is determined that there is a person within the area that can be detected by the human sensor and the person does not exist within the imageable area of the imaging unit, the person is within the imageable area of the imaging unit. Drive unit control means for driving the drive unit to exist,
A display device comprising:
アプリケーションの実行指示を受け付けたときに、アプリケーションを実行するための設定情報に基づいて当該アプリケーションを実行するアプリケーション制御手段と、
上記撮影部が撮像した人の画像から当該人の顔の特徴を示す情報であるユーザ顔情報を抽出する画像処理手段と、
上記撮影部に撮影の指示を送信する撮影制御手段とを備え、
上記駆動部制御手段は、上記アプリケーション制御手段が上記実行指示を受け付けたときに、上記人感センサの検出可能領域内に存在する人が上記撮影部の撮影可能領域内に存在するように上記撮影部を駆動するものであり、
上記撮影制御手段は、予め上記撮影部の撮影可能領域内に存在する人及び上記駆動部を駆動することによって撮影可能領域内に存在することとなった人を撮影するように上記撮影部に撮影させるものであり、
上記アプリケーション制御手段は、ユーザ顔情報と設定情報とを関連付けて記憶する記憶部から、上記画像処理手段が抽出したユーザ顔情報に関連付けられている設定情報を取得してアプリケーションを実行するものであることを特徴とする請求項2に記載の表示装置。
Application control means for executing the application based on setting information for executing the application when an application execution instruction is received;
Image processing means for extracting user face information, which is information indicating the characteristics of the person's face, from the image of the person captured by the photographing unit;
Photographing control means for transmitting a photographing instruction to the photographing unit;
When the application control unit receives the execution instruction, the driving unit control unit is configured to capture the image so that a person existing in the detectable region of the human sensor exists in the imageable region of the imaging unit. Drive the part,
The photographing control means photographs in the photographing unit so as to photograph a person existing in the photographing possible region of the photographing unit and a person existing in the photographing possible region by driving the driving unit. It is what
The application control means acquires the setting information associated with the user face information extracted by the image processing means from a storage unit that stores the user face information and the setting information in association with each other, and executes the application. The display device according to claim 2.
コンピュータを請求項2又は3に記載の表示装置の各手段として機能させるプログラム。   The program which makes a computer function as each means of the display apparatus of Claim 2 or 3. 請求項4に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which recorded the program of Claim 4.
JP2010134345A 2010-06-11 2010-06-11 Imaging apparatus, display device, program, and recording media Pending JP2011259384A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010134345A JP2011259384A (en) 2010-06-11 2010-06-11 Imaging apparatus, display device, program, and recording media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010134345A JP2011259384A (en) 2010-06-11 2010-06-11 Imaging apparatus, display device, program, and recording media

Publications (1)

Publication Number Publication Date
JP2011259384A true JP2011259384A (en) 2011-12-22

Family

ID=45475024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010134345A Pending JP2011259384A (en) 2010-06-11 2010-06-11 Imaging apparatus, display device, program, and recording media

Country Status (1)

Country Link
JP (1) JP2011259384A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014083669A1 (en) * 2012-11-30 2014-06-05 日立マクセル株式会社 Picture display device, and setting modification method and setting modification program therefor
JP5846661B2 (en) * 2012-07-06 2016-01-20 Necディスプレイソリューションズ株式会社 Display device and control method of display device
US20220026981A1 (en) * 2018-11-27 2022-01-27 Sony Group Corporation Information processing apparatus, method for processing information, and program
US11949952B2 (en) 2015-12-15 2024-04-02 Maxell, Ltd. Display apparatus, information terminal and information processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007074143A (en) * 2005-09-05 2007-03-22 Canon Inc Imaging device and imaging system
JP2008042702A (en) * 2006-08-09 2008-02-21 Fuji Xerox Co Ltd Photographic subject photographing apparatus, photographic subject displaying apparatus, photographic subject displaying system and program
WO2010021373A1 (en) * 2008-08-22 2010-02-25 ソニー株式会社 Image display device, control method and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007074143A (en) * 2005-09-05 2007-03-22 Canon Inc Imaging device and imaging system
JP2008042702A (en) * 2006-08-09 2008-02-21 Fuji Xerox Co Ltd Photographic subject photographing apparatus, photographic subject displaying apparatus, photographic subject displaying system and program
WO2010021373A1 (en) * 2008-08-22 2010-02-25 ソニー株式会社 Image display device, control method and computer program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5846661B2 (en) * 2012-07-06 2016-01-20 Necディスプレイソリューションズ株式会社 Display device and control method of display device
US9753500B2 (en) 2012-07-06 2017-09-05 Nec Display Solutions, Ltd. Display device including presence sensors for detecting user, and display method for the same
WO2014083669A1 (en) * 2012-11-30 2014-06-05 日立マクセル株式会社 Picture display device, and setting modification method and setting modification program therefor
CN104641410A (en) * 2012-11-30 2015-05-20 日立麦克赛尔株式会社 Picture display device, and setting modification method and setting modification program therefor
US9665922B2 (en) 2012-11-30 2017-05-30 Hitachi Maxell, Ltd. Picture display device, and setting modification method and setting modification program therefor
US10097900B2 (en) 2012-11-30 2018-10-09 Maxell, Ltd. Picture display device, and setting modification method and setting modification program therefor
CN108881986A (en) * 2012-11-30 2018-11-23 麦克赛尔株式会社 Image display, and its setting variation, setting change program
US11227356B2 (en) 2012-11-30 2022-01-18 Maxell, Ltd. Picture display device, and setting modification method and setting modification program therefor
US11823304B2 (en) 2012-11-30 2023-11-21 Maxell, Ltd. Picture display device, and setting modification method and setting modification program therefor
US11949952B2 (en) 2015-12-15 2024-04-02 Maxell, Ltd. Display apparatus, information terminal and information processing method
US20220026981A1 (en) * 2018-11-27 2022-01-27 Sony Group Corporation Information processing apparatus, method for processing information, and program

Similar Documents

Publication Publication Date Title
JP5967473B2 (en) Imaging apparatus and imaging system
JP5867424B2 (en) Image processing apparatus, image processing method, and program
JP4788792B2 (en) Imaging apparatus, imaging method, and imaging program
JP5959923B2 (en) Detection device, control method thereof, control program, imaging device and display device
US8638372B2 (en) Image capture unit with changeable image capture direction
US9094597B2 (en) Imaging apparatus and imaging system
US10630891B2 (en) Image processing apparatus, image processing method, and program
JP5991514B2 (en) Imaging apparatus and imaging system
JP4751776B2 (en) Electronic imaging device and personal identification system
US9258481B2 (en) Object area tracking apparatus, control method, and program of the same
JP4431547B2 (en) Image display control device, control method therefor, and control program therefor
US20130077874A1 (en) Image processing device that renews identification information of specific subject
US10455154B2 (en) Image processing device, image processing method, and program including stable image estimation and main subject determination
JP2011182252A (en) Imaging device, and image imaging method
JP2010165012A (en) Imaging apparatus, image retrieval method, and program
JP4952920B2 (en) Subject determination apparatus, subject determination method and program thereof
US20190098250A1 (en) Information processing apparatus, imaging apparatus, information processing method, and recording medium
JP2011061703A (en) Image capturing apparatus and method of manufacturing the same
JP2011259384A (en) Imaging apparatus, display device, program, and recording media
JP5820210B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5423186B2 (en) Imaging apparatus, area detection method, and program
JP2017092689A (en) Control device, control method, and program
JP5217843B2 (en) Composition selection apparatus, composition selection method and program
JP2008098755A (en) Imaging apparatus and method
JP2012029119A (en) Display control device, camera and display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140610