WO2007116662A1 - Electronic device and method for operating same - Google Patents

Electronic device and method for operating same Download PDF

Info

Publication number
WO2007116662A1
WO2007116662A1 PCT/JP2007/056081 JP2007056081W WO2007116662A1 WO 2007116662 A1 WO2007116662 A1 WO 2007116662A1 JP 2007056081 W JP2007056081 W JP 2007056081W WO 2007116662 A1 WO2007116662 A1 WO 2007116662A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
electronic device
unit
image processing
processing unit
Prior art date
Application number
PCT/JP2007/056081
Other languages
French (fr)
Japanese (ja)
Inventor
Hiroyuki Ishihara
Hideaki Watanabe
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Publication of WO2007116662A1 publication Critical patent/WO2007116662A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4436Power management, e.g. shutting down unused components of the receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Provided is an electronic device which can suitably detect existence and movement of a viewer by using imaging results obtained by a camera. An electronic device (10) is provided with a plurality of imaging sections (1, 2) for converting the image of an object (20) in front of the display screen of a display section (5) into an image signal; an image processing section (6) for signal-processing the image signal; and a display control section (7) for controlling an image to be displayed on the display section (5) based on the signal processing results of the image processing section (6). The image processing section (6) specifies the position of the object (20), based on, for instance, a difference between the image signals outputted from the imaging sections (1, 2).

Description

明 細 書  Specification
電子装置及びその操作方法  Electronic device and operation method thereof
技術分野  Technical field
[0001] 本発明は、表示画面を有する表示部を備える表示装置の動作を制御する電子装 置及びその操作方法に関する。  The present invention relates to an electronic device that controls the operation of a display device that includes a display unit having a display screen, and an operation method thereof.
背景技術  Background art
[0002] 画像センサによりハンドジェスチャーやボディアクションを検出'認識するヒューマン インターフェースシステムが提案されている(例えば、特許文献 1)。  A human interface system that detects and recognizes hand gestures and body actions using an image sensor has been proposed (for example, Patent Document 1).
[0003] また、表示装置の前方の視聴者の身振り、手振り、表情、視線をカメラで読み取り、 それに基づいて表示装置を制御する電子装置が提案されている (例えば、特許文献 2、 3)。  [0003] In addition, electronic devices have been proposed in which the gesture, hand gesture, facial expression, and line of sight of a viewer in front of the display device are read by a camera and the display device is controlled based on the camera (for example, Patent Documents 2 and 3).
[0004] さらに、複数のセンサにより、表示装置の前方の視聴者の位置を検出し、検出した 視聴者の位置に応じて、画像や音量を制御する表示装置も提案されて!ヽる (例えば 、特許文献 4)。  [0004] Further, a display device that detects the position of the viewer in front of the display device using a plurality of sensors and controls the image and volume according to the detected position of the viewer has also been proposed (for example, Patent Document 4).
特許文献 1 :特開平 10— 31551号公報  Patent Document 1: JP-A-10-31551
特許文献 2:特表 2004— 527954号公報  Patent Document 2: Japanese Translation of Special Publication 2004—527954
特許文献 3 :特開 2004— 213486号公報  Patent Document 3: Japanese Patent Application Laid-Open No. 2004-213486
特許文献 4:特開 2005— 49656号公報  Patent Document 4: Japanese Patent Laid-Open No. 2005-49656
発明の開示  Disclosure of the invention
発明が解決しょうとする課題  Problems to be solved by the invention
[0005] し力しながら、上記の各特許文献には、視聴者の身振り、手振り、表情、視線をどの ようにしてカメラで読み取るのかにっ 、ては開示されておらず、実際にやってみると 簡単には読み取れな!/、ことが分かる。 [0005] However, in each of the above patent documents, it is not disclosed how to read the viewer's gesture, hand gesture, facial expression, and line of sight with a camera. You can see that it is not easy to read!
[0006] 例えば、視聴者の身振りに応じてテレビのチャネルを切り替えるだけでも、大きな身 振りでないと正確に読み取ることは難しい。カメラに接近すれば大きな身振りを必要と しなくなるが、逆に、視聴者がテレビを操作しにくくなる。 [0006] For example, it is difficult to read accurately only by switching the TV channel according to the gesture of the viewer unless the gesture is large. When you get close to the camera, you don't need to make a lot of gestures, but on the other hand, viewers have difficulty operating the TV.
[0007] このため、現在、テレビなどで使用されているリモートコントローラと同様な制御が可 能であり、かつ、リモートコントローラと同様に操作が容易であることが求められる。 [0007] For this reason, the same control as a remote controller currently used in a television or the like is possible. And is easy to operate like a remote controller.
[0008] また、センサにより視聴者を認識するシステムは、表示装置のオン Zオフや視聴者 との距離に応じた音量の調整などのように比較的基本的な制御しか行うことができな い。  [0008] In addition, a system for recognizing a viewer using a sensor can perform only relatively basic control such as turning on and off the display device and adjusting the volume according to the distance from the viewer. .
[0009] 本発明の課題としては上述のような課題が一例として挙げられる。  [0009] The above-described problem is given as an example of the problem of the present invention.
課題を解決するための手段  Means for solving the problem
[0010] 上記の課題を解決するため、本発明は、第一の態様として、表示画面を有する表 示部を備える表示装置の動作を制御する電子装置であって、前記表示画面の前方 の対象物の画像を画像信号に変換する少なくとも 2個の撮像部と、前記画像信号を 信号処理する画像処理部と、を備え、前記画像処理部の信号処理結果に基づいて 前記表示部の動作を制御することを特徴とする電子装置を提供する。 [0010] In order to solve the above-described problem, the present invention provides, as a first aspect, an electronic device that controls the operation of a display device including a display unit having a display screen, the object being in front of the display screen An image processing unit that performs signal processing on the image signal, and controls the operation of the display unit based on a signal processing result of the image processing unit. An electronic device is provided.
[0011] さらに、本発明は、第二の態様として、表示画面を有する表示部を備える表示装置 の動作を制御する電子装置の操作方法であって、前記表示画面の前方の所定の位 置における所定の形状、所定の動き、または、前記所定の形状の所定の動きを検出 することにより対象物を特定する第 1の工程と、前記第 1の工程に応答して、複数のメ ニューと、前記複数のメニューの何れ力 1つのメニューに対応する位置のカーソルと を前記表示画面に表示する第 2の工程と、前記対象物の動きに応じて前記カーソル を移動させる第 3の工程と、前記対象物の動きに応じて前記カーソルの位置に対応 するメニューを実行する第 4の工程と、を有することを特徴とする電子装置の操作方 法を提供する。 [0011] Furthermore, the present invention provides, as a second aspect, an electronic device operation method for controlling an operation of a display device including a display unit having a display screen, at a predetermined position in front of the display screen. A first step of identifying an object by detecting a predetermined shape, a predetermined movement, or a predetermined movement of the predetermined shape; and a plurality of menus in response to the first step; A second step of displaying on the display screen a cursor at a position corresponding to one of the plurality of menus, a third step of moving the cursor according to the movement of the object, And a fourth step of executing a menu corresponding to the position of the cursor according to the movement of the object.
[0012] さらに、本発明は、第三の態様として、表示画面を有する表示部を備える表示装置 の動作を制御する電子装置の操作方法をコンピュータに実行させるためのプロダラ ムであって、前記プログラムが行う処理は、前記表示画面の前方の所定の位置にお ける所定の形状、所定の動き、または、前記所定の形状の所定の動きを検出すること により対象物を特定する第 1の処理と、前記第 1の工程に応答して、複数のメニューと 、前記複数のメニューの何れか 1つのメニューに対応する位置のカーソルとを前記表 示画面に表示する第 2の処理と、前記対象物の動きに応じて前記カーソルを移動さ せる第 3の処理と、前記対象物の動きに応じて前記カーソルの位置に対応するメ-ュ 一を実行する第 4の処理と、を含むことを特徴とするプログラムを提供する。 [0012] Further, according to a third aspect of the present invention, there is provided a program for causing a computer to execute an operation method of an electronic device that controls an operation of a display device including a display unit having a display screen. Is a first process for identifying an object by detecting a predetermined shape, a predetermined movement, or a predetermined movement of the predetermined shape at a predetermined position in front of the display screen. A second process of displaying a plurality of menus and a cursor at a position corresponding to any one of the plurality of menus on the display screen in response to the first step; A third process for moving the cursor according to the movement of the object, and a menu corresponding to the position of the cursor according to the movement of the object. And a fourth process for executing a program.
[0013] さらに、本発明は、第四の態様として、表示画面を有する表示部と、上記の電子装 置と、を備える表示装置を提供する。 Furthermore, the present invention provides, as a fourth aspect, a display device including a display unit having a display screen and the electronic device described above.
図面の簡単な説明  Brief Description of Drawings
[0014] [図 1]本発明の実施例 1に係る電子装置の構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of an electronic device according to Embodiment 1 of the present invention.
[図 2]本発明の実施例 1に係る電子装置の一構成要素である表示制御部のブロック 図である。  FIG. 2 is a block diagram of a display control unit that is one component of the electronic device according to the first embodiment of the invention.
[図 3]カメラによる撮像対象物が視聴者であるか否かを判別する動作の一例の流れを 示すフローチャートである。  FIG. 3 is a flowchart showing a flow of an example of an operation for determining whether or not an object to be imaged by a camera is a viewer.
[図 4]カメラによる撮像対象物が視聴者であるか否かを判別する動作の一例の流れを 示すフローチャートである。  FIG. 4 is a flowchart showing an example of an operation for determining whether or not an object to be imaged by a camera is a viewer.
[図 5]カメラによる撮像対象物が視聴者であるか否かを判別する動作の他の一例の流 れを示すフローチャートである。  FIG. 5 is a flowchart showing a flow of another example of an operation for determining whether or not an object to be imaged by a camera is a viewer.
[図 6]表示画面を有する表示部を備える表示装置とカメラとの間の位置関係を示す模 式的な正面図である。  FIG. 6 is a schematic front view showing a positional relationship between a camera and a display device including a display unit having a display screen.
[図 7]図 6の XZ平面を示す図である。  FIG. 7 is a diagram showing the XZ plane of FIG.
[図 8]本発明の実施例 2に係る電子装置の構成を示すブロック図である。  FIG. 8 is a block diagram showing a configuration of an electronic apparatus according to Embodiment 2 of the present invention.
[図 9]本発明の実施例 3に係る電子装置の構成を示すブロック図である。  FIG. 9 is a block diagram showing a configuration of an electronic apparatus according to Embodiment 3 of the present invention.
[図 10]画像処理部により視聴者の身振り、手振りその他のジェスチャーコマンドを判 別する方法の一例のフローチャートである。  FIG. 10 is a flowchart of an example of a method for discriminating viewer gestures, hand gestures, and other gesture commands by the image processing unit.
[図 11]本発明の実施例 4に係る電子装置の構成を示すブロック図である。  FIG. 11 is a block diagram showing a configuration of an electronic device according to Embodiment 4 of the present invention.
[図 12]本発明の実施例 1に係る電子装置を備える表示装置の構造を示すブロック図 である。  FIG. 12 is a block diagram illustrating a structure of a display device including the electronic device according to the first embodiment of the invention.
[図 13]本発明の実施例 2に係る電子装置を備える表示装置の構造を示すブロック図 である。  FIG. 13 is a block diagram showing a structure of a display device including an electronic device according to Embodiment 2 of the present invention.
[図 14]本発明の実施例 3に係る電子装置を備える表示装置の構造を示すブロック図 である。  FIG. 14 is a block diagram showing a structure of a display device including an electronic device according to Embodiment 3 of the present invention.
[図 15]本発明の実施例 4に係る電子装置を備える表示装置の構造を示すブロック図 である。 FIG. 15 is a block diagram showing the structure of a display device including an electronic device according to Example 4 of the invention. It is.
符号の説明 Explanation of symbols
10 本発明の実施例 1に係る電子装置 10 Electronic device according to Embodiment 1 of the present invention
1 カメラ (撮像部) 1 Camera (imaging part)
2 カメラ (撮像部)  2 Camera (imaging part)
3 カメラ (撮像部)  3 Camera (imaging part)
4 表示画面  4 Display screen
5 表示部  5 Display section
6 画像処理部  6 Image processing section
7 表示制御部  7 Display controller
71 中央処理装置  71 Central processing unit
72 第一のメモリー  72 First memory
73 第二のメモリー  73 Second memory
74 人力インターフェイス  74 Human interface
75 出力インターフェイス  75 Output interface
8 視聴履歴生成部  8 Viewing history generator
9 視聴履歴記憶部  9 Viewing history storage
21 表示装置  21 Display device
11 報知用発光部  11 Notification light emitting part
12 発光制御部  12 Light emission controller
13 音声発生部  13 Audio generator
14 音声制御部  14 Voice control unit
15 主電源投入部  15 Main power input section
20 撮像対象物  20 Object to be imaged
30 本発明の実施例 2に係る電子装置 30 Electronic device according to Embodiment 2 of the present invention
40 本発明の実施例 3に係る電子装置40 Electronic device according to Embodiment 3 of the present invention
50 本発明の実施例 4に係る電子装置50 Electronic device according to Embodiment 4 of the present invention
100 表示装置 200 表示装置 100 display devices 200 display devices
300 表示装置  300 display
400 表示装置  400 display device
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0016] 本発明に係る電子装置の一実施形態においては、前記画像処理部により特定され た前記対象物の位置または形状に応じて前記表示部の動作を制御することが好まし い。 In one embodiment of the electronic device according to the present invention, it is preferable to control the operation of the display unit according to the position or shape of the object specified by the image processing unit.
[0017] 本発明に係る電子装置の一実施形態にお!ヽては、前記画像処理部は前記撮像部 が出力する前記画像信号間の相違に基づいて前記対象物の位置を特定することが 好ましい。  In one embodiment of the electronic device according to the present invention, the image processing unit may specify a position of the object based on a difference between the image signals output from the imaging unit. preferable.
[0018] 本発明に係る電子装置の一実施形態にお!、ては、前記画像処理部の信号処理結 果に基づいて前記表示部に表示する画像を制御する表示制御部をさらに備えること が好ましい。  [0018] One embodiment of the electronic device according to the present invention may further include a display control unit that controls an image to be displayed on the display unit based on a signal processing result of the image processing unit. preferable.
[0019] 本発明に係る電子装置の一実施形態にお!、ては、前記表示制御部は、前記画像 処理部により特定された前記対象物の位置または形状に応じて前記表示部に表示 する画像を制御することが好まし 、。  In one embodiment of the electronic device according to the present invention, the display control unit displays on the display unit according to the position or shape of the object specified by the image processing unit. Preferred to control the image.
[0020] 本発明に係る電子装置の一実施形態にお!、ては、前記表示制御部は、前記対象 物が所定の位置に位置する力 または、前記対象物が所定の形状である場合に、前 記表示部に表示する画像を前記対象物の動きに応じて制御することが好ましい。  [0020] In one embodiment of the electronic device according to the present invention, the display control unit may be configured such that the object is positioned at a predetermined position or the object has a predetermined shape. The image displayed on the display unit is preferably controlled according to the movement of the object.
[0021] 本発明に係る電子装置の一実施形態においては、前記表示制御部は、前記対象 物が所定の位置に位置する力 または、前記対象物が所定の形状である場合に、前 記表示画面に複数のメニューと前記複数のメニューの何れか 1つのメニューに対応 する位置のカーソルとを表示し、前記対象物の動きに応じて前記カーソルを移動させ ることが好ましい。  In one embodiment of the electronic device according to the present invention, the display control unit displays the above-mentioned display when the object is in a predetermined position or when the object has a predetermined shape. Preferably, a plurality of menus and a cursor at a position corresponding to any one of the plurality of menus are displayed on the screen, and the cursor is moved according to the movement of the object.
[0022] 本発明に係る電子装置の一実施形態にお!、ては、前記表示制御部は、前記対象 物の動きが所定の動きである場合に、前記カーソルの位置に対応するメニューが選 択されたと判断し、前記メニューに対応する画像を前記表示部に表示することが好ま しい。 [0023] 本発明に係る電子装置の一実施形態にお!、ては、前記表示制御部は、前記対象 物を見失った場合に、前記対象物を見失った旨を示す情報を前記表示画面に表示 することが好ましい。 In one embodiment of the electronic device according to the present invention, the display control unit selects a menu corresponding to the position of the cursor when the movement of the object is a predetermined movement. It is preferable to display the image corresponding to the menu on the display unit. In one embodiment of the electronic device according to the present invention, when the display control unit loses sight of the object, information indicating that the object has been lost is displayed on the display screen. It is preferable to display.
[0024] 本発明に係る電子装置の一実施形態においては、前記表示装置における過去の 視聴履歴を生成する視聴履歴生成部と、前記視聴履歴生成部により生成された視 聴履歴を記憶する視聴履歴記憶部と、をさらに備えており、前記表示制御部は、前 記画像処理部により特定された前記対象物の位置または形状及び日時に応じて、前 記視聴履歴記憶部に記憶されて ヽる視聴履歴を検索し、視聴される可能性の高 、 番組またはそのリストを前記表示部に表示するものであることが好ましい。  In one embodiment of the electronic device according to the present invention, a viewing history generation unit that generates a past viewing history in the display device, and a viewing history that stores the viewing history generated by the viewing history generation unit. A storage unit, and the display control unit is stored in the viewing history storage unit according to the position or shape of the object specified by the image processing unit and the date and time. It is preferable that the viewing history is searched and a program or a list thereof is displayed on the display unit with a high possibility of being viewed.
[0025] 本発明に係る電子装置の一実施形態においては、視聴者に対して報知動作を行う 報知動作部と、前記画像処理部の制御下にぉ 、て前記報知動作部の報知動作を制 御する報知動作制御部と、をさらに備え、前記表示制御部は、前記画像処理部によ り特定された前記対象物の特定の動きを検知した場合に、前記報知動作制御部が 前記報知動作部を作動させるように前記報知動作制御部に出力を発することが好ま しい。  In an embodiment of the electronic device according to the present invention, the notification operation of the notification operation unit is controlled under the control of a notification operation unit that performs a notification operation for a viewer and the image processing unit. A notification operation control unit for controlling the notification operation control unit when the display control unit detects a specific movement of the object specified by the image processing unit. It is preferable to output the notification operation control unit so as to operate the unit.
[0026] 本発明に係る電子装置の操作方法の一実施形態においては、前記対象物の位置 を見失った場合に、前記第 1の工程を再度実行する旨を操作者に対して報知する第 5の工程をさらに有することが好ましい。  In one embodiment of the operation method of the electronic device according to the present invention, when the position of the object is lost, a fifth notification is given to the operator that the first step is to be executed again. It is preferable to further include the process.
[0027] 本発明に係る電子装置の操作方法の一実施形態においては、少なくとも 2個の撮 像部が前記対象物を撮影して出力する画像信号間の相違に基づいて前記対象物 の位置が所定の位置にあるかどうかを判定する第 6の工程をさらに有することが好ま しい。  In one embodiment of the operation method of the electronic device according to the present invention, the position of the object is determined based on a difference between image signals output by the at least two imaging units imaging the object. It is preferable to further include a sixth step of determining whether or not the vehicle is in a predetermined position.
[0028] 本発明に係る電子装置の操作方法の一実施形態においては、前記第 2の工程に ぉ ヽて前記表示装置の主電源を投入することが好ま Uヽ。  [0028] In one embodiment of the method for operating an electronic device according to the present invention, it is preferable to turn on the main power of the display device in the second step.
[0029] 本発明に係る電子装置の操作方法の一実施形態においては、前記表示装置にお ける過去の視聴履歴を生成し、記憶する第 7の工程と、前記対象物の位置または形 状及び日時に応じて、前記視聴履歴を検索する第 8の工程と、前記視聴履歴の検索 結果に応じて、視聴される可能性の高 、番組またはそのリストを前記表示部に表示 する第 9の工程と、をさらに備えることが好ましい。 [0029] In one embodiment of the method for operating an electronic device according to the present invention, a seventh step of generating and storing a past viewing history in the display device, and a position or shape of the object and Eighth step of searching the viewing history according to the date and time, and a program or a list thereof is displayed on the display unit with a high possibility of being viewed according to a search result of the viewing history. It is preferable to further include a ninth step.
実施例 1  Example 1
[0030] 図 1は本発明の実施例 1に係る電子装置 10の構成を示すブロック図である。  FIG. 1 is a block diagram showing a configuration of an electronic device 10 according to Embodiment 1 of the present invention.
[0031] 以下、図 1を参照して実施例 1を説明する。 Hereinafter, Example 1 will be described with reference to FIG.
[0032] 図 1に示すように、本発明の実施例 1に係る電子装置 10は、表示装置 (例えば、図 6に示す表示装置 21)を構成する構成要素の一つであり、表示動作を行う表示部 5 の表示画面の前方に位置する撮像対象物 20の画像を撮像し、撮像した画像を画像 信号に変換する 2つのカメラ (撮像部) 1及び 2と、カメラ 1及び 2により生成された画像 信号を信号処理する画像処理部 6と、画像処理部 6から受信した信号処理結果に基 づいて、表示部 5に表示する画像を制御する表示制御部 7と、を備えている。  As shown in FIG. 1, the electronic device 10 according to the first embodiment of the present invention is one of the components constituting the display device (for example, the display device 21 shown in FIG. 6), and performs display operation. Generated by two cameras (imaging units) 1 and 2 and cameras 1 and 2 that capture an image of the imaging object 20 located in front of the display screen of the display unit 5 to perform and convert the captured image into an image signal An image processing unit 6 that performs signal processing on the image signal, and a display control unit 7 that controls an image to be displayed on the display unit 5 based on the signal processing result received from the image processing unit 6.
[0033] 表示部 5を有する表示装置としては、例えば、一般的なテレビ装置やパーソナルコ ンピュータなどがある。本発明の実施例 1に係る電子装置 10はこのような表示装置の 表示部 5に接続されて使用される。  [0033] Examples of the display device having the display unit 5 include a general television device and a personal computer. The electronic device 10 according to the first embodiment of the present invention is used by being connected to the display unit 5 of such a display device.
[0034] カメラ 1及び 2は、例えば、 CCDカメラからなる。  The cameras 1 and 2 are, for example, CCD cameras.
[0035] 画像処理部 6は、カメラ 1及び 2から入力される画像信号を処理することにより、表示 部 5の前方に位置する撮像対象物 20が視聴者 (表示部 5に表示される画像及び表 示装置が備える図示しないスピーカより出力される音声を視聴する意志を有する人) であるか否かの判定その他の処理を行う。  [0035] The image processing unit 6 processes the image signals input from the cameras 1 and 2, so that the imaging object 20 positioned in front of the display unit 5 is viewed by the viewer (the image displayed on the display unit 5 and It is determined whether or not the user is willing to view audio output from a speaker (not shown) provided in the display device.
[0036] また、表示制御部 7は、画像処理部 6により、表示部 5の前方に視聴者が居ると判定 された場合に、自動的に選局した番組を表示部 5に表示させるなどの制御を行う。  [0036] Further, the display control unit 7 displays the automatically selected program on the display unit 5 when the image processing unit 6 determines that there is a viewer in front of the display unit 5. Take control.
[0037] 図 2は表示制御部 7のブロック図である。  FIG. 2 is a block diagram of the display control unit 7.
[0038] 表示制御部 7は、中央処理装置 (CPU) 71と、第一のメモリー 72と、第二のメモリー 73と、各種命令及びデータを中央処理装置 71に入力するための入力インターフェイ ス 74と、中央処理装置 71により実行された処理の結果を出力する出力インターフエ イス 75と、 CPU71と他の構成要素とを接続するバス 76と、カゝら構成されている。  [0038] The display control unit 7 includes a central processing unit (CPU) 71, a first memory 72, a second memory 73, and an input interface for inputting various commands and data to the central processing unit 71. 74, an output interface 75 for outputting the result of the processing executed by the central processing unit 71, and a bus 76 for connecting the CPU 71 and other components.
[0039] 第一及び第二のメモリー 72、 73の各々は、リード'オンリ一'メモリー(ROM)、ラン ダム ·アクセス'メモリー (RAM)または ICメモリーカードなどの半導体記憶装置、フレ キシブルディスクなどの記憶媒体、ハードディスク、あるいは、光学磁気ディスクなど 力もなる。本実施例においては、第一のメモリー 72は ROM力もなり、第二のメモリー 73は RAMからなる。 [0039] Each of the first and second memories 72 and 73 is a read-only memory (ROM), a random access memory (RAM), a semiconductor memory device such as an IC memory card, a flexible disk, etc. Storage medium, hard disk, or optical magnetic disk, etc. There will be power. In the present embodiment, the first memory 72 also has ROM power, and the second memory 73 consists of RAM.
[0040] 第一のメモリー 72は中央処理装置 71が実行するための各種の制御用プログラムそ の他の固定的なデータを格納している。第二のメモリー 73は様々なデータ及びパラ メータを記憶しているとともに、中央処理装置 71に対する作動領域を提供する、すな わち、中央処理装置 71がプログラムを実行する上で一時的に必要とされるデータを 格納している。中央処理装置 71は第一のメモリー 72からプログラムを読み出し、その プログラムを実行する。すなわち、中央処理装置 71は第一のメモリー 72に格納され ているプログラムに従って作動する。  The first memory 72 stores various control programs and other fixed data to be executed by the central processing unit 71. The second memory 73 stores various data and parameters and provides an operating area for the central processing unit 71, that is, temporarily necessary for the central processing unit 71 to execute the program. The data that is supposed to be stored. The central processing unit 71 reads the program from the first memory 72 and executes the program. That is, the central processing unit 71 operates according to a program stored in the first memory 72.
[0041] ここで、表示装置の表示部 5が備える表示画面の前方に視聴者が居ることを特定し 、視聴者に番組選択を提示する方法としては以下のような方法が考えられる。  Here, as a method for specifying that the viewer is present in front of the display screen included in the display unit 5 of the display device and presenting the program selection to the viewer, the following method can be considered.
(1)人と人以外のものの区別、移動しているかどうかの区別  (1) Distinguishing between people and non-people, whether they are moving
視聴者の判別方法として、(A)人であれば微小な動きがある、(B)視聴者であれば 表示画面の前方力 移動しない、との前提に基づいて、以下のように判別する。  As a method for discriminating the viewer, the following discrimination is made based on the premise that (A) there is a slight movement for a person and (B) the viewer does not move forward force on the display screen.
[0042] 図 3は、画像処理部 6により、カメラ 1 (もしくはカメラ 2、あるいは、カメラ 1及び 2の双 方。以下同じ)による撮像対象物 20が視聴者であるか否かを判別する動作の流れを 示すフローチャートである。  [0042] FIG. 3 shows an operation of determining whether or not the object 20 to be imaged by the camera 1 (or the camera 2 or both of the cameras 1 and 2; the same applies hereinafter) is a viewer by the image processing unit 6. It is a flowchart which shows the flow of.
[0043] 以下、カメラ 1の撮像対象物 20が視聴者であるか否かを画像処理部 6が判別する 動作について、図 3を参照して説明する。  [0043] Hereinafter, an operation of the image processing unit 6 determining whether or not the imaging target 20 of the camera 1 is a viewer will be described with reference to FIG.
[0044] 画像処理部 6は、先ず、撮像対象物 20の動きを検出し、動きのあるものと、動きの ないものとを区別する。すなわち、画像処理部 6は、撮像対象物 20に動きがある力否 かを判定する (ステップ Sl)。 [0044] First, the image processing unit 6 detects the movement of the imaging target 20, and distinguishes between the moving object and the non-moving object. That is, the image processing unit 6 determines whether or not the imaging target 20 has a force (Step Sl).
[0045] 撮像対象物 20に動きがない場合には、画像処理部 6は撮像対象物 20に動きがあ る力否かの判定を繰り返して行う(ステップ S1の NO)。 [0045] When there is no movement of the imaging target 20, the image processing unit 6 repeatedly determines whether or not the imaging target 20 has a movement (NO in step S1).
[0046] 撮像対象物 20に動きがある場合には (ステップ S1の YES)、画像処理部 6は撮像 対象物 20が移動して 、るか否かを判定する (ステップ S 2)。 [0046] When the imaging target 20 has a motion (YES in step S1), the image processing unit 6 determines whether or not the imaging target 20 has moved (step S2).
[0047] 撮像対象物 20が移動して 、る場合 (ステップ S2の YES)には、画像処理部 6は撮 像対象物 20に動きがある力否かの判定を再度行う(ステップ Sl)。 [0048] 撮像対象物 20が移動して 、な 、場合 (ステップ S2の NO)には、画像処理部 6は撮 像対象物 20が視聴者であると判断する (ステップ S4)。 [0047] When the imaging target 20 is moved (YES in step S2), the image processing unit 6 determines again whether or not the imaging target 20 has a motion (step Sl). [0048] If the imaging object 20 has moved (NO in step S2), the image processing unit 6 determines that the imaging object 20 is a viewer (step S4).
[0049] すなわち、画像処理部 6は、撮像対象物 20に動きがあれば (ステップ S1の YES)、 撮像対象物 20が人であると判別する。さらに、その動きが所定の大きさよりも小さけ れば、撮像対象物 20である人が移動していない (ステップ S2の NO)、すなわち、撮 像対象物 20が視聴者であると判断する (ステップ S4)。  That is, the image processing unit 6 determines that the imaging target 20 is a person if the imaging target 20 has a motion (YES in step S1). Further, if the movement is smaller than the predetermined size, it is determined that the person who is the imaging target 20 has not moved (NO in step S2), that is, the imaging target 20 is the viewer ( Step S4).
[0050] ここで、撮像対象物 20に動きがある力否かの判定 (ステップ S1)においては、具体 的には、例えば、画像処理部 6は、所定時間内に所定の速さで所定の長さ以上の動 きがあるか否かにより判断する。所定時間内に所定の速さで所定の長さ以上の動き があれば、画像処理部 6は、撮像対象物 20に動きがあると判定する (ステップ S1の Y ES)。  [0050] Here, in the determination of whether or not the imaging target 20 has a force (step S1), specifically, for example, the image processing unit 6 performs predetermined processing at a predetermined speed within a predetermined time. Judgment is based on whether there is movement over the length. If there is a movement of a predetermined length or more at a predetermined speed within a predetermined time, the image processing unit 6 determines that there is a movement of the imaging target 20 (YES in step S1).
[0051] さらに、撮像対象物 20に動きがある力否かの判定 (ステップ S1)においては、画像 処理部 6は、例えば、撮像対象物 20の動きが所定時間内に所定回数以上検出され る力否かを判断する。撮像対象物 20の動きが所定時間内に所定回数以上検出され た場合には、画像処理部 6は、撮像対象物 20に動きがあると判定する (ステップ S1 の YES)。  [0051] Further, in determining whether or not the imaging target 20 has a force (step S1), the image processing unit 6 detects, for example, the movement of the imaging target 20 a predetermined number of times or more within a predetermined time. Judge whether it is power or not. When the movement of the imaging object 20 is detected a predetermined number of times or more within a predetermined time, the image processing unit 6 determines that the imaging object 20 has a movement (YES in step S1).
[0052] また、撮像対象物 20が移動している力否かの判定 (ステップ S 2)においては、画像 処理部 6は、その動きが所定の大きさ未満であるか否かを判断する。撮像対象物 20 の動きが所定の大きさ未満である場合には (ステップ S2の NO)、画像処理部 6は、撮 像対象物 20が視聴者であると判断する (ステップ S4)。  [0052] Further, in determining whether or not the imaging object 20 is moving (step S2), the image processing unit 6 determines whether or not the movement is less than a predetermined magnitude. When the movement of the imaging target 20 is less than the predetermined magnitude (NO in step S2), the image processing unit 6 determines that the imaging target 20 is a viewer (step S4).
[0053] 図 4は、画像処理部 6により、カメラ 1による撮像対象物 20が視聴者であるカゝ否かを 判定する具体例を示すフローチャートである。  FIG. 4 is a flowchart showing a specific example in which the image processing unit 6 determines whether or not the imaging target 20 by the camera 1 is a viewer.
[0054] カメラ 1は CCDカメラからなるものとする。  [0054] The camera 1 is assumed to be a CCD camera.
[0055] 先ず、カメラ 1は、撮像対象物 20において、 5秒間に 5ドット以上 100ドット未満の動 きが検出される力否かを判定する (ステップ S 1— 1)。  [0055] First, the camera 1 determines whether or not the imaging object 20 is capable of detecting a motion of 5 dots or more and less than 100 dots in 5 seconds (step S1-1).
[0056] 5秒間に 5ドット未満または 100ドット以上の動きが検出された場合には (ステップ S1  [0056] If movement of less than 5 dots or more than 100 dots is detected in 5 seconds (step S1
- 1の NO)、画像処理部 6は撮像対象物 20において 5秒間に 5ドット以上 100ドット 未満の動きが検出される力否かの判定を繰り返して行う(ステップ S1— 1)。 [0057] 5秒間に 5ドット以上 100ドット未満の動きが検出された場合には (ステップ S 1—1の-NO of 1), the image processing unit 6 repeatedly determines whether or not the imaging object 20 is capable of detecting a motion of 5 dots or more and less than 100 dots in 5 seconds (step S1-1). [0057] If a motion of 5 dots or more and less than 100 dots is detected in 5 seconds (in step S 1-1)
YES)、画像処理部 6は、さら〖こ、 1分間にその動きが 6回以上検出されるカゝ否かを判 定する (ステップ S1— 2)。 YES), the image processing unit 6 determines whether or not the movement is detected more than 6 times per minute (step S1-2).
[0058] 動きが 5回未満である場合には (ステップ S1— 2の NO)、画像処理部 6は撮像対象 物 20において 5秒間に 5ドット以上 100ドット未満の動きが検出されるか否かの判定 を繰り返して行う(ステップ S 1— 1)。 [0058] When the motion is less than 5 times (NO in step S1-2), the image processing unit 6 determines whether or not a motion of 5 dots or more and less than 100 dots is detected in the imaging target 20 for 5 seconds. This determination is repeated (step S1-1).
[0059] 6回以上検出されれば (ステップ S1— 2の YES)、動きがあり、画像処理部 6は撮像 対象物 20が人であると判断する(図 3のステップ S 1の YES)。 [0059] If detected six times or more (YES in step S1-2), there is movement, and the image processing unit 6 determines that the imaging target 20 is a person (YES in step S1 in FIG. 3).
[0060] し力も、 5秒間に 100ドット未満の動きである場合には、画像処理部 6はその撮像対 象物 20が移動していない(図 3のステップ S2の NO)、すなわち、撮像対象物 20は表 示装置の視聴者であると判断する (ステップ S4)。 [0060] If the force also moves less than 100 dots in 5 seconds, the image processing unit 6 has not moved the imaging object 20 (NO in step S2 in FIG. 3), that is, the imaging target. The object 20 is determined to be a viewer of the display device (step S4).
[0061] なお、図 3に示すフローチャートにおいては、「動きがある力」(ステップ S1)と「移動 しているか」(ステップ S2)のチェックを 1台のカメラ 1で 1回のみ実行している力 少な くとも 2台のカメラ 1、 2を用いて、カメラ 1、 2により生成された画像信号に基づいて、 撮像対象物 20に動きがあるカゝ否かの判定 (ステップ S1)、及び、撮像対象物 20が移 動しているカゝ否かの判定 (ステップ S2)を行うことにより、撮像対象物 20が視聴者であ る力否かの判定 (ステップ S4)の精度を上げることができる。 [0061] In the flowchart shown in FIG. 3, the check of "force with movement" (step S1) and "whether it is moving" (step S2) is executed only once by one camera 1. Using at least two cameras 1 and 2, based on the image signals generated by the cameras 1 and 2, whether or not the imaging target 20 is moving is determined (step S1), and By determining whether or not the imaging object 20 is moving (step S2), it is possible to improve the accuracy of determining whether or not the imaging object 20 is a viewer (step S4). it can.
(2)視聴者の位置の特定  (2) Identification of viewer position
図 5は、図 3に示した動作よりも更に検出精度を向上させる動作を示すフローチヤ一 トである。  FIG. 5 is a flowchart showing an operation for improving detection accuracy further than the operation shown in FIG.
[0062] 図 5に示す例においては、 2台のカメラ 1、 2により生成された画像信号相互間の相 違に基づき、上記(1)の動作、すなわち、図 3に示されたプロセスにより視聴者である と判断された撮像対象物 20の位置を特定し、特定された位置が予め設定した視聴 範囲内であるか否かを判定する (ステップ S3)。  In the example shown in FIG. 5, based on the difference between the image signals generated by the two cameras 1 and 2, the operation of (1) above, that is, the process shown in FIG. The position of the imaging object 20 determined to be a person is specified, and it is determined whether or not the specified position is within a preset viewing range (step S3).
[0063] 撮像対象物 20の位置が予め設定した視聴範囲内ではな 、場合には (ステップ S3 の NO)、画像処理部 6は、撮像対象物 20に動きがあるカゝ否かの判定)を再度行う(ス テツプ Sl)。  [0063] In the case where the position of the imaging target 20 is not within the preset viewing range (NO in step S3), the image processing unit 6 determines whether the imaging target 20 has a motion) Perform again (step Sl).
[0064] 撮像対象物 20の位置が予め設定した視聴範囲内である場合には (ステップ S3の Y ES)、画像処理部 6はその撮像対象物 20が表示装置を視聴する意志を有する視聴 者であると判断する (ステップ S4)。 [0064] If the position of the imaging object 20 is within the preset viewing range (Y in step S3) ES), the image processing unit 6 determines that the imaging target 20 is a viewer who intends to view the display device (step S4).
[0065] 図 6は、表示画面 4を有する表示部 5を備える表示装置 21とカメラ 1、 2との間の位 置関係を示す模式的な正面図である。 FIG. 6 is a schematic front view showing a positional relationship between the display device 21 including the display unit 5 having the display screen 4 and the cameras 1 and 2.
[0066] 図 6に示すように、表示装置 21の上端の左右にカメラ 1、カメラ 2がそれぞれ備えら れているものとする。 As shown in FIG. 6, it is assumed that cameras 1 and 2 are provided on the left and right of the upper end of the display device 21, respectively.
[0067] 標準的な視聴範囲は、例えば、表示装置 21の表示部 5が備える表示画面 4からの 距離 (表示画面 4からの z軸方向における長さ)と、 z軸に直交し、かつ、表示画面 4に 平行な面 (xy平面)における水平方向(X軸とする)の位置及び垂直方向(y軸とする) の位置とにより画定されるものとすると、表示画面 4からの距離は表示画面 4の対角の 長さの 2乃至 3倍の範囲とし、 z軸に直交し、かつ、表示画面 4に平行な面内における 位置は表示画面 4を z軸方向に平行移動させることにより生じる空間の範囲内にある ものとする。  [0067] The standard viewing range is, for example, a distance from the display screen 4 included in the display unit 5 of the display device 21 (a length in the z-axis direction from the display screen 4), orthogonal to the z-axis, and Assuming that it is defined by the horizontal (X-axis) position and vertical (y-axis) position on the plane parallel to display screen 4 (xy plane), the distance from display screen 4 is displayed. The range is 2 to 3 times the diagonal length of screen 4, and the position in the plane perpendicular to z-axis and parallel to display screen 4 is generated by translating display screen 4 in the z-axis direction. It shall be within the space.
[0068] 2台のカメラ 1、 2はこの視聴範囲を撮像できるように予め調整されており、かつ、 2 台のカメラ 1、 2の位置は、それら 2台のカメラ 1、 2により撮像される画像間に差が生じ るように、設定されている。  [0068] The two cameras 1 and 2 are adjusted in advance so that the viewing range can be imaged, and the positions of the two cameras 1 and 2 are imaged by the two cameras 1 and 2. It is set so that there is a difference between images.
[0069] 続いて、図 7を参照して、画像処理部 6による視聴者の位置の特定方法を説明する  Subsequently, referring to FIG. 7, a method for specifying the position of the viewer by the image processing unit 6 will be described.
[0070] 図 7は図 6の XZ平面を示し、図 7の X軸上にカメラ 1、 2が設置されている。カメラ 1、FIG. 7 shows the XZ plane of FIG. 6, and cameras 1 and 2 are installed on the X axis of FIG. Camera 1,
2は、具体的には、例えば、 CCD二次元カメラであることを想定している力 ここでは 簡単のため、 1次元の範囲で考える。 Specifically, 2 is a force that assumes a CCD two-dimensional camera, for example.
[0071] カメラ 1には、図 7に示すように、 X軸上に(n+ 1)個のセンサ素子 AO、 Al、 · · ·、 Ap[0071] As shown in FIG. 7, the camera 1 includes (n + 1) sensor elements AO, Al,..., Ap on the X axis.
、 · · ·、 Anが配置されている。同様に、カメラ 2には(n+ 1)個のセンサ素子 BO、 Bl、, ... An is arranged. Similarly, camera 2 has (n + 1) sensor elements BO, Bl,
· · ·、 Bg、 · · ·、 Bnが配置されている。 ······················ Bn
[0072] センサ素子 AOには直線 a 0上の物体が撮像される。同様に、センサ素子 Ap、 An には直線 α ρ、 0;11上の物体カ^撮像され、センサ素子80、88、811には直線|8 0、 β §An object on the straight line a 0 is imaged on the sensor element AO. Similarly, the sensor elements Ap and An are imaged on the object α on the straight line αρ, 0; 11, and the sensor elements 80, 8 8 , 811 have the straight line | 8 0, β §
、 j8 η上の物体が撮像される。 The object on j8 η is imaged.
[0073] すなわち、カメラ 1は直線 α θと直線 a nとに挟まれる範囲内にある物体を撮像し、 カメラ 2は直線 |8 0と |8 nとに挟まれる範囲内にある物体を撮像する。 [0073] That is, the camera 1 captures an object within a range between the straight line α θ and the straight line an, Camera 2 captures an object in the range between straight lines | 80 and | 8n.
[0074] このとき、カメラ 1のセンサ素子 Apに撮像され、カメラ 2のセンサ素子 Bgに撮像され た物体 (ここでは点と考える)の位置は図 7の直線 a pと |8 gとが交わる位置であること が分かる。 [0074] At this time, the position of the object (considered as a point here) imaged by the sensor element Ap of the camera 1 and imaged by the sensor element Bg of the camera 2 is the position where the straight line ap and | 8 g in FIG. You can see that.
[0075] 以上のようにして、画像処理部 6は XZ平面上の視聴者の位置を特定することがで きる。  As described above, the image processing unit 6 can specify the position of the viewer on the XZ plane.
[0076] 視聴者の高さ方向の位置を特定するためには YZ平面上の視聴者の位置を特定す る必要がある。  [0076] In order to specify the position in the height direction of the viewer, it is necessary to specify the position of the viewer on the YZ plane.
[0077] この場合、図 6に示すように、カメラ 1及び 2を表示装置 21の上端の左右に、カメラ 1 及び 2とは別のカメラ 3を表示装置 21の下部 (カメラ 1の下方)に配置する。  In this case, as shown in FIG. 6, the cameras 1 and 2 are on the left and right of the upper end of the display device 21, and the camera 3 different from the cameras 1 and 2 is on the lower portion of the display device 21 (below the camera 1). Deploy.
[0078] 図 7のカメラ 1、 3により生成される画像信号に基づき、上記の XZ平面内における位 置を特定するのと同様にして、画像処理部 6は YZ平面内における視聴者の位置を 特定することができる。  [0078] Based on the image signals generated by the cameras 1 and 3 in FIG. 7, the image processing unit 6 determines the position of the viewer in the YZ plane in the same manner as specifying the position in the XZ plane. Can be identified.
[0079] なお、カメラを 3台使用しなくても、 2台のカメラを使用する場合であっても、撮像対 象物 20すなわち視聴者の 3次元的な位置を特定することができる。この場合には、 例えば、図 6に示すカメラ 2、 3のように、表示画面 4の対角線上に位置する 2台のカメ ラ、すなわち、 X方向及び Y方向においてそれぞれ離れた位置にある 2台のカメラを 用いる。  [0079] Note that the three-dimensional position of the object to be imaged 20, that is, the viewer, can be specified even when three cameras are not used or two cameras are used. In this case, for example, like the cameras 2 and 3 shown in FIG. 6, two cameras located on the diagonal line of the display screen 4, that is, two cameras that are separated from each other in the X direction and the Y direction, respectively. Use the camera.
[0080] 以上のような実施例 1によれば、画像処理部 6の信号処理結果に基づいて表示画 面 4を有する表示部 5を備える表示装置 21の動作を制御することができる。  According to the first embodiment as described above, the operation of the display device 21 including the display unit 5 having the display screen 4 can be controlled based on the signal processing result of the image processing unit 6.
実施例 2  Example 2
[0081] 図 8は本発明の実施例 2に係る電子装置 30の構成を示すブロック図である。  FIG. 8 is a block diagram showing a configuration of the electronic device 30 according to the second embodiment of the present invention.
[0082] 以下に述べるように、本発明の実施例 2に係る電子装置 30においては、過去の表 示装置 21の視聴履歴に基づく視聴者の視聴番組の予測が行われる。 As described below, in the electronic device 30 according to the second embodiment of the present invention, the viewer's viewing program is predicted based on the viewing history of the past display device 21.
[0083] 図 8に示すように、本発明の実施例 2に係る電子装置 30は、図 1に示した実施例 1 に係る電子装置 10の構成に加えて、表示装置 21における過去の視聴履歴を生成 する視聴履歴生成部 8と、この視聴履歴生成部 8により生成された視聴履歴を記憶 保持する視聴履歴記憶部 9と、を備えている。 [0084] なお、図 2に示した中央処理装置 71及び第二のメモリー 73が、機能的には、本実 施例における視聴履歴生成部 8と視聴履歴記憶部 9とを構成している。 As shown in FIG. 8, the electronic device 30 according to the second embodiment of the present invention includes a past viewing history on the display device 21 in addition to the configuration of the electronic device 10 according to the first embodiment shown in FIG. And a viewing history storage unit 9 for storing and holding the viewing history generated by the viewing history generation unit 8. Note that the central processing unit 71 and the second memory 73 shown in FIG. 2 functionally configure the viewing history generation unit 8 and the viewing history storage unit 9 in this embodiment.
[0085] 視聴履歴生成部 8は、表示装置 21にお 、て番組の視聴が行われるたびに、視聴 者の人数と、それぞれの視聴者の位置と、そのときの曜日及び時間帯その他の時間 に関するパラメータと、視聴された番組とを相互に対応付けた視聴履歴データを生成 する。生成された視聴履歴データは視聴履歴記憶部 9に格納される。  [0085] Every time a program is viewed on the display device 21, the viewing history generation unit 8 counts the number of viewers, the position of each viewer, the day of the week, the time zone, and other times. Viewing history data in which the parameters related to the program viewed are associated with each other. The generated viewing history data is stored in the viewing history storage unit 9.
[0086] これにより、視聴履歴記憶部 9は視聴履歴データを格納するに従って、視聴履歴デ ータを蓄積したデータベースが構築される。  [0086] Thereby, the viewing history storage unit 9 constructs a database that accumulates viewing history data as the viewing history data is stored.
[0087] 画像処理部 6が視聴者に視聴の意志ありと判断した場合、表示制御部 7は、そのと きの視聴の意志のある視聴者の人数やそれぞれの視聴者の位置、さらに、そのとき の曜日及び時間帯といった条件から、表示装置 21における過去の視聴履歴 (その条 件に合致する番組)を視聴履歴記憶部 9内より検索し、さらに、現在放送中または所 定時間以内に開始される番組を EPG (電子プログラムガイド)力 検索し、視聴者が 最も視聴する可能性の高い番組を表示部 5に表示する。  [0087] When the image processing unit 6 determines that the viewer is willing to view, the display control unit 7 determines the number of viewers who are willing to view at that time, the position of each viewer, Based on the conditions such as the day of the week and the time zone, the past viewing history on the display device 21 (the program that matches the conditions) is searched from the viewing history storage unit 9, and is also currently being broadcast or started within a predetermined time EPG (Electronic Program Guide) is searched for the program to be viewed, and the program that is most likely to be viewed by the viewer is displayed on the display unit 5.
[0088] あるいは、表示制御部 7は、最も視聴される可能性の高!、番組順に現在放送中ま たは所定時間以内に開始される番組リストを表示部 5に表示し、その番組リストの中 から視聴者が自分で視聴する番組を選択できるようにすることもできる。番組の選択 は、例えば、表示装置 21の操作部(図示せず)またはリモートコントローラを用いるこ とにより行われる。  [0088] Alternatively, the display control unit 7 displays on the display unit 5 a program list that is most likely to be watched and is currently being broadcast or started within a predetermined time in the order of programs. It is also possible to allow the viewer to select a program to watch by himself / herself. The selection of the program is performed by using, for example, an operation unit (not shown) of the display device 21 or a remote controller.
[0089] 家庭で表示装置 21に表示される番組を視聴する場合、家族のそれぞれのメンバー により視聴する場合の位置が決まっていることがある。  [0089] When viewing a program displayed on the display device 21 at home, the position for viewing by each member of the family may be determined.
[0090] そこで、画像処理部 6では、視聴者の位置に基づ 、てどの視聴者かを推定し、その 推定結果を表示制御部 7に出力することができる。 Therefore, the image processing unit 6 can estimate which viewer is based on the position of the viewer and output the estimation result to the display control unit 7.
[0091] 画像処理部 6から推定結果を受信した表示制御部 7は、ある特定の位置において 視聴する視聴者が通常視聴する番組、すなわち、その位置により、そのときの曜日と 時間帯から、表示装置 21における過去の視聴履歴を視聴履歴記憶部 9にお ヽて検 索することが可能になる。 [0091] The display control unit 7 that has received the estimation result from the image processing unit 6 displays the program normally viewed by the viewer who views at a specific position, that is, from the current day of the week and time zone according to the position. It is possible to search the past viewing history in the device 21 in the viewing history storage unit 9.
[0092] なお、実施例 1のように視聴者の位置を特定しておけば、カメラ 1、 2 (或 、は、カメラ 1、 2、 3)の方向及び焦点を各視聴者の顔に合わせ、各視聴者の顔を撮像し、撮像 した画像を信号処理し、予め記憶された視聴者の顔の画像と比較することにより、視 聴者を特定することもできる。 [0092] If the position of the viewer is specified as in the first embodiment, the cameras 1 and 2 (or the camera The direction and focus of 1, 2, 3) are adjusted to each viewer's face, each viewer's face is imaged, the captured image is signal processed, and compared with the pre-stored viewer's face image. Thus, the viewer can be specified.
[0093] 以上のような実施例 2によれば、画像処理部 6の信号処理結果に基づいて、過去の 表示装置 21の視聴履歴に基づく視聴者の視聴番組を予測することができる。 According to the second embodiment as described above, the viewer's viewing program based on the past viewing history of the display device 21 can be predicted based on the signal processing result of the image processing unit 6.
実施例 3  Example 3
[0094] 図 9は本発明の実施例 3に係る電子装置 40の構成を示すブロック図である。  FIG. 9 is a block diagram showing a configuration of the electronic device 40 according to the third embodiment of the present invention.
[0095] 図 9に示すように、本発明の実施例 3に係る電子装置 40は、図 1に示した実施例 1 に係る電子装置 10の構成に加えて、例えば、視聴者に対する所定の報知動作を発 光により行うための報知用発光部 11と、画像処理部 6の制御下において報知用発光 部 11の発光動作を制御する発光制御部 12と、視聴者に対する所定の報知動作を 音声により行うための音声発生部 13と、画像処理部 6の制御下において音声発生部 13の音声発生動作を制御する音声制御部 14と、を備えている。  As shown in FIG. 9, in addition to the configuration of the electronic device 10 according to the first embodiment shown in FIG. 1, the electronic device 40 according to the third embodiment of the present invention provides, for example, a predetermined notification to the viewer. The notification light emitting unit 11 for performing the operation by light emission, the light emission control unit 12 for controlling the light emission operation of the notification light emitting unit 11 under the control of the image processing unit 6, and the predetermined notification operation for the viewer by voice And a sound control unit 14 for controlling the sound generation operation of the sound generation unit 13 under the control of the image processing unit 6.
[0096] 報知用発光部 11は、例えば、ランプや LEDなどにより構成され、例えば、表示部 5 の表示画面 4の周辺に配置されている。  [0096] The notification light emitting unit 11 includes, for example, a lamp, an LED, and the like, and is disposed around the display screen 4 of the display unit 5, for example.
[0097] 音声発生部 13はスピーカから構成される。この音声発生部 13を構成するスピーカ は、例えば、表示装置 21の一構成要素として設けられ、視聴の際に音声を発音する スピーカにより兼用することとしても良いし、このスピーカとは別に設けても良い。  [0097] The sound generator 13 is composed of a speaker. The speaker that constitutes the sound generation unit 13 is provided as one component of the display device 21, for example, and may be shared by a speaker that emits sound during viewing or may be provided separately from the speaker. good.
[0098] 画像処理部 6は、視聴者の身振り、手振りその他のジェスチャーコマンドを判別する と、発光制御部 12及び音声制御部 14の何れか一方または双方に制御信号を発信 し、音声発生部 13または報知用発光部 11を作動させる。  [0098] When the image processing unit 6 determines the gesture command, gesture, or other gesture command of the viewer, the image processing unit 6 transmits a control signal to one or both of the light emission control unit 12 and the voice control unit 14, and the voice generation unit 13 Alternatively, the notification light emitting unit 11 is activated.
[0099] 図 10は、画像処理部 6により視聴者の身振り、手振りその他のジェスチャーコマンド を判別する方法の一例のフローチャートである。以下、図 10を参照して、画像処理部 6による視聴者のジェスチャーコマンドの判別方法を説明する。  FIG. 10 is a flowchart of an example of a method for discriminating viewer gestures, hand gestures, and other gesture commands by the image processing unit 6. Hereinafter, a method for discriminating the viewer's gesture command by the image processing unit 6 will be described with reference to FIG.
(1)前準備  (1) Preparation
前準備としては、ジェスチャーコマンドが提供される 3次元的空間の範囲を予め設 定し、その範囲を示す情報を画像処理部 6が保持する。  As preparation, a range of a three-dimensional space in which a gesture command is provided is set in advance, and the image processing unit 6 holds information indicating the range.
[0100] 例えば、表示装置 21の表示部 5が備える表示画面 4からの距離 (表示画面 4からの z軸方向における長さ)は表示画面 4の対角の長さの 2乃至 3倍の範囲とし、 z軸に直 交し、かつ、表示画面 4に平行な面 (xy平面)における水平方向(X軸とする)の位置 及び垂直方向(y軸とする)の位置は表示画面 4を z軸方向に平行移動させることによ り生じる空間の範囲内にあるものとする。 [0100] For example, the distance from the display screen 4 included in the display unit 5 of the display device 21 (from the display screen 4 The length in the z-axis direction) is in the range of 2 to 3 times the diagonal length of the display screen 4, and the horizontal direction on the plane (xy plane) that is perpendicular to the z-axis and parallel to the display screen 4 The position in the X axis and the position in the vertical direction (in the y axis) are within the space created by translating the display screen 4 in the z axis direction.
[0101] この 3次元的空間の範囲は予め視聴者が操作により調整できるようにしておくことも 可能である。この調整は、例えば、 CCDカメラの焦点調整に対応する。  [0101] The range of the three-dimensional space can be adjusted in advance by the viewer through operation. This adjustment corresponds to, for example, the focus adjustment of the CCD camera.
[0102] 図 10に示すフローチャートにおいて、図 5に示したステップ S1乃至ステップ S4と同 様にして、撮像対象物 20を視聴者と判定する。  In the flowchart shown in FIG. 10, the imaging object 20 is determined as a viewer in the same manner as Steps S1 to S4 shown in FIG.
(2)対象物特定コマンドとコマンドメニュー  (2) Object identification command and command menu
画像処理部 6はジェスチャーコマンドを提供する対象物 20を特定する必要がある。 ステップ S1乃至ステップ S4における処理により、視聴者の概略の位置は分かってい る力 その視聴者の中に対象物 20がいるのかどうか、また、視聴者が複数いる場合、 どの視聴者が対象物 20であるのかを特定することが必要である。  The image processing unit 6 needs to specify the object 20 that provides the gesture command. The power at which the approximate position of the viewer is known by the processing in steps S1 to S4. Whether there is the target object 20 in the viewer, and if there are multiple viewers, which viewer is the target object 20. It is necessary to specify whether it is.
[0103] すなわち、視聴者が対象物 20であることを示す対象物特定コマンド (ジェスチャー コマンド)を視聴者力も電子装置 40に対して提供する必要がある。  That is, it is necessary to provide the electronic device 40 with an object identification command (gesture command) indicating that the viewer is the object 20.
[0104] 対象物特定コマンドは視聴者の通常の動作には該当しないような動作である必要 がある。通常の動作を対象物特定コマンドとして定めると、その通常の動作が対象物 特定コマンドとしてなされたもの力否かの区別がつかないためである。  [0104] The object specifying command needs to be an operation that does not correspond to the normal operation of the viewer. This is because if a normal operation is defined as an object specifying command, it cannot be distinguished whether the normal operation is performed as an object specifying command.
[0105] 対象物特定コマンドとしては、例えば、所定以上の速さの動きあるいは往復運動や 円運動のような繰り返しの動きが考えられる。すなわち、手を所定以上の速さで動か したり、手を左右、上下または斜め方向に繰り返し振るジェスチャーや繰り返し運動、 手で円を描くような円運動が考えられる。これらの繰り返し運動や円運動が所定速度 以上で行われることを対象物特定コマンドであるための条件とすることもできる。  [0105] As the object specifying command, for example, a motion at a predetermined speed or higher or a repetitive motion such as a reciprocating motion or a circular motion can be considered. In other words, moving the hand at a speed faster than a predetermined speed, gestures and repeated movements of repeatedly shaking the hand left and right, up and down or diagonally, and circular movements such as drawing a circle by hand are conceivable. It can be set as a condition for the object specifying command that these repeated motions and circular motions are performed at a predetermined speed or more.
[0106] 画像処理部 6は、対象物 20が何らかの動作を行った場合、その動作がジエスチヤ 一コマンドであるか否かを判定する(ステップ S5)。  [0106] When the object 20 performs some operation, the image processing unit 6 determines whether the operation is a gesture one command (step S5).
[0107] 画像処理部 6は、対象物 20の動作がジェスチャーコマンドであると判定した場合に は (ステップ S5の YES)、報知指令信号を発光制御部 12及び音声制御部 14に対し て出力する。 [0108] 画像処理部 6からの報知指令信号を受信すると、発光制御部 12は報知用発光部 1 1を発光させる一方で、音声制御部 14は音声発生部 13により報知音を発音させる。 [0107] When the image processing unit 6 determines that the motion of the object 20 is a gesture command (YES in step S5), the image processing unit 6 outputs a notification command signal to the light emission control unit 12 and the sound control unit 14. . When the notification command signal from the image processing unit 6 is received, the light emission control unit 12 causes the notification light emitting unit 11 to emit light, while the sound control unit 14 causes the sound generation unit 13 to generate a notification sound.
[0109] 力!]えて、画像処理部 6は表示制御部 7に指令を出力し、表示部 5に報知メッセージ などを表示させるよう〖こすることもできる。  [0109] Power! Alternatively, the image processing unit 6 can output a command to the display control unit 7 and prompt the display unit 5 to display a notification message or the like.
[0110] 次いで、画像処理部 6は、表示制御部 7に指令を出力し、表示部 5にコマンドメ-ュ 一 (詳細後述)を表示させる。  Next, the image processing unit 6 outputs a command to the display control unit 7 and causes the display unit 5 to display a command menu (details will be described later).
[0111] なお、表示部 5に何らかの画像が表示されている場合であっても、表示部 5に表示 されている画像に重ねて、あるいは、表示部 5に表示されている画像の一部を消して 、コマンドメニューを表示する。これにより、視聴者に対して対象物 20を特定したこと を示すとともに、視聴者に次のコマンドを促す。  [0111] Note that even when an image is displayed on the display unit 5, it overlaps the image displayed on the display unit 5 or a part of the image displayed on the display unit 5. Erase and display the command menu. This indicates to the viewer that the object 20 has been identified, and prompts the viewer for the next command.
(3)カーソル移動とコマンド選択  (3) Cursor movement and command selection
表示部 5に表示されたコマンドメニューにはチャネル選択メニューが含まれている。  The command menu displayed on the display unit 5 includes a channel selection menu.
[0112] 具体的には、例えば、地上波テレビ、 BSテレビ、 CSテレビなどが列挙されているメ ニューが表示される。カーソルを希望するメニューの位置まで移動させ、そのメニュー を選択することにより、コマンドの選択が完了する。すなわち、メニューの選択はパソ コンのマウスと同じ要領で行われる。  [0112] Specifically, for example, a menu listing terrestrial television, BS television, CS television, and the like is displayed. The command selection is completed by moving the cursor to the desired menu position and selecting that menu. In other words, menu selection is done in the same way as a PC mouse.
[0113] カーソルの移動は手その他の視聴者の体の一部の繰り返しの動きにより行う。方向 は手などの動きの方向である。  [0113] The cursor is moved by repetitive movements of the hand or other part of the viewer's body. The direction is the direction of movement of the hand.
[0114] ただし、例えば、手を左右に往復運動させた場合、カーソルを右と左のどちらに動 かすかは右に動かすときと左に動かすときの速さの違いにより示す。例えば、手を遅 く動かす方の方向にカーソルを動かすものとすることができる。あるいは、その逆に、 手を早く動かす方の方向にカーソルを動かすものとすることもできる。  [0114] However, for example, when the hand is reciprocated left and right, whether to move the cursor to the right or left is indicated by the difference in speed when moving to the right or left. For example, the cursor can be moved in the direction of moving the hand slowly. Or conversely, the cursor can be moved in the direction of moving the hand quickly.
[0115] 手を遅く動かす方の方向にカーソルを動かすようにすると、手の動きに連動して画 像処理部 6はカーソルをその方向に移動させる。  [0115] When the cursor is moved in the direction of moving the hand slowly, the image processing unit 6 moves the cursor in that direction in conjunction with the movement of the hand.
[0116] すなわち、画像処理部 6は、手の動きの種類を検出し、その検出結果を表示制御 部 7に出力する。画像処理部 6から検出結果を受信した表示制御部 7は、手の動きの 種類に応じて、カーソルを移動させる。視聴者はカーソルが対象コマンドの上に来た ら、そこで手の動きをとめることにより、画像処理部 6はカーソルの移動を手の動きが 止まった地点で停止させる。 That is, the image processing unit 6 detects the type of hand movement and outputs the detection result to the display control unit 7. The display control unit 7 that has received the detection result from the image processing unit 6 moves the cursor according to the type of hand movement. When the cursor is over the target command, the viewer stops the movement of the hand, so that the image processing unit 6 moves the cursor. Stop at the point where it stopped.
[0117] 次に、視聴者は選択コマンドのジェスチャーを行う。  [0117] Next, the viewer performs a selection command gesture.
[0118] 選択コマンドのジェスチャーも手その他の視聴者の体の一部の動き力もなるものと することができるが、その場合には、カーソルを移動させるための動きとは異なる動き にすることが必要である。  [0118] The gesture of the selection command can also be the movement force of the hand or other part of the viewer's body, but in this case, the movement may be different from the movement for moving the cursor. is necessary.
[0119] カーソルの移動が手その他の視聴者の体の一部の往復運動の遅い方向への移動 により決定される場合、例えば、手その他の視聴者の体の一部を所定の速さよりも早 く往復させた場合に、その往復運動が選択コマンドのジェスチャーを構成するように することちでさる。  [0119] When the movement of the cursor is determined by the slow movement of the reciprocating movement of the hand or other body part of the viewer, for example, the hand or other body part of the viewer is moved faster than a predetermined speed. This is done by making the reciprocating motion constitute the gesture of the selection command when it is reciprocated quickly.
[0120] また、手その他の視聴者の体の一部を回転運動、すなわち、表示画面 4に平行な 面内において円を描くような動きを選択ジェスチャーとすることもできる。  [0120] In addition, the selection gesture may be a rotational motion of a part of the viewer's body such as the hand or the like, that is, a motion that draws a circle in a plane parallel to the display screen 4.
[0121] 画像処理部 6は、視聴者の手の動きが選択コマンドの動きであることを検出すると、 検出信号を表示制御部 7に発信する。 [0121] When detecting that the movement of the viewer's hand is the movement of the selection command, the image processing unit 6 transmits a detection signal to the display control unit 7.
[0122] 表示制御部 7は、画像処理部 6から検出信号を受信すると、選択された機能に応じ た画像 (選択された番組など)を表示部 5に表示させる (ステップ S6)。 [0122] Upon receiving the detection signal from the image processing unit 6, the display control unit 7 causes the display unit 5 to display an image (such as the selected program) according to the selected function (step S6).
[0123] 以後、上記と同様にしてカーソルの移動及びカーソルの選択を行うことにより、引き 続き、電子装置 40を介して表示装置 21をジェスチャーコマンドにより制御することが できる。 [0123] Thereafter, by moving the cursor and selecting the cursor in the same manner as described above, the display device 21 can be continuously controlled by the gesture command via the electronic device 40.
(4)終了コマンド  (4) Termination command
ジェスチャーコマンドを終了する場合には、視聴者は終了コマンドを指示する。  When ending the gesture command, the viewer instructs the end command.
[0124] 終了コマンドは、カーソル移動コマンド、カーソル選択コマンド及び対象物特定コマ ンドを指示する動き以外の手その他の視聴者の体の一部の動きにより示される。 [0124] The end command is indicated by a movement of the hand or other part of the viewer's body other than the movement for instructing the cursor movement command, the cursor selection command, and the target object specifying command.
[0125] 例えば、手などを所定の速さより早く往復させるジェスチャーを終了コマンドにする こともできる。このジェスチャーをカーソル選択コマンドを指示するジェスチャーと同じ にする場合には、そのジェスチャーを往復させる方向によって、終了コマンドとカーソ ル選択コマンドとを区別することができる。 [0125] For example, a gesture for reciprocating a hand or the like faster than a predetermined speed can be used as the end command. If this gesture is the same as the gesture that instructs the cursor selection command, the end command and the cursor selection command can be distinguished by the direction in which the gesture reciprocates.
[0126] また、手その他の視聴者の体の一部の回転運動を終了コマンドにすることもできる 。この回転運動をカーソル選択コマンドと同じにする場合には、回転する方向により、 終了コマンドとカーソル選択コマンドとを区別することができる。 [0126] In addition, a rotational motion of a part of the body of the viewer or other hand can be used as an end command. If this rotational movement is the same as the cursor selection command, depending on the direction of rotation, The end command and the cursor selection command can be distinguished.
[0127] 画像処理部 6は、常時、視聴者が終了コマンドを指示する動きをしている力否かを モニターして!/、る(ステップ S7)。  [0127] The image processing unit 6 constantly monitors whether or not the viewer is moving to instruct the end command! / (Step S7).
[0128] 画像処理部 6は、終了コマンドを認識すると (ステップ S7の YES)、終了コマンド認 識信号を表示制御部 7に送信する。画像処理部 6から終了コマンド認識信号を受信 した表示制御部 7は表示部 5よりコマンドメニューの表示を消し、表示部 5の表示を指 示された状態にする。 [0128] When recognizing the end command (YES in step S7), the image processing unit 6 transmits an end command recognition signal to the display control unit 7. Upon receiving the end command recognition signal from the image processing unit 6, the display control unit 7 deletes the command menu display from the display unit 5 and puts the display on the display unit 5 into the designated state.
(5)その他  (5) Other
画像処理部 6が、ジェスチャーコマンドを指示して!/、た視聴者のジェスチャーの位 置、例えば、その視聴者の手の位置を見失ってしまうことがあり得る。例えば、視聴者 が手によるジェスチャーコマンドにより画像処理部 6に対して指示していたときに、視 聴者が急に手を下に降ろしてしまうと、画像処理部 6は視聴者の手の位置を見失うこ とがある。  It is possible that the image processing unit 6 loses sight of the viewer's gesture position, for example, the position of the viewer's hand, by giving a gesture command! For example, when the viewer gives an instruction to the image processing unit 6 by a hand gesture command, if the viewer suddenly drops his hand, the image processing unit 6 positions the viewer's hand. You may lose sight.
[0129] このような場合には、画像処理部 6は、対象物 20の特定ができなくなつたことを示す 信号を表示制御部 7、音声制御部 14または発光制御部 12に送信し、表示制御部 7 、音声制御部 14または発光制御部 12はその旨を表示部 5の画像、報知用発光部 1 1の発光または音声発生部 13からの発音により視聴者に対して報知する。  [0129] In such a case, the image processing unit 6 transmits a signal indicating that the object 20 cannot be specified to the display control unit 7, the audio control unit 14, or the light emission control unit 12 for display. The control unit 7, the audio control unit 14, or the light emission control unit 12 notifies the viewer to that effect by the image of the display unit 5, the light emission of the notification light emitting unit 11 or the sound generation from the sound generation unit 13.
[0130] 表示部 5、報知用発光部 11または音声発生部 13からの報知を受けた視聴者は、 再度、対象物特定コマンドにより、画像処理部 6が対象物 20を特定できるようにする ことができる。  [0130] The viewer who has received the notification from the display unit 5, the notification light emitting unit 11 or the sound generation unit 13 must again enable the image processing unit 6 to specify the target object 20 using the target object specifying command. Can do.
[0131] また、対象物 20の特定ができなくなった旨の報知を行って力も所定時間(例えば、 5分)が経過しても、再度の対象物特定コマンドを認識できない場合には、画像処理 部 6は、終了コマンドが発せられたとみなして、その旨を示す信号を表示制御部 7に 送信する。この信号を受信した表示制御部 7はコマンドメニューを終了させる。  [0131] Further, if the object 20 cannot be identified and the force cannot be recognized again after a predetermined time (for example, 5 minutes), the image processing is performed. The unit 6 considers that the end command has been issued, and transmits a signal indicating that to the display control unit 7. The display control unit 7 that has received this signal ends the command menu.
[0132] なお、実施例 3に係る電子装置 40は、視聴者に対して報知動作を行う報知動作部 として報知用発光部 11と音声発生部 13とを有するように構成されているが、必要に 応じて、報知用発光部 11及び音声発生部 13のうちの何れか一方のみを有するもの として構成することも可能である。 実施例 4 [0132] The electronic device 40 according to the third embodiment is configured to include the notification light emitting unit 11 and the sound generation unit 13 as a notification operation unit that performs a notification operation to the viewer. Depending on the situation, it may be configured to have only one of the notification light emitting unit 11 and the sound generation unit 13. Example 4
[0133] 図 11は本発明の実施例 4に係る電子装置 50の構成を示すブロック図である。  FIG. 11 is a block diagram showing a configuration of an electronic device 50 according to Embodiment 4 of the present invention.
[0134] 図 11に示すように、本発明の実施例 4に係る電子装置 50は、図 1に示した実施例 1 に係る電子装置 10の構成に加えて、画像処理部 6の制御下において表示装置 21の 主電源を投入する主電源投入部 15を備えている。 As shown in FIG. 11, the electronic device 50 according to the fourth embodiment of the present invention is under the control of the image processing unit 6 in addition to the configuration of the electronic device 10 according to the first embodiment shown in FIG. A main power supply unit 15 for turning on the main power of the display device 21 is provided.
[0135] 例えば、画像処理部 6が視聴者の対象物特定コマンド (ジェスチャーコマンド)によ り対象物 20を特定した場合、表示装置 21の主電源がオフになっているときには、画 像処理部 6は主電源投入部 15に指令を出力し、表示装置 21の主電源をオンにする [0135] For example, when the image processing unit 6 specifies the object 20 by the viewer's object specifying command (gesture command) and the main power of the display device 21 is off, the image processing unit 6 outputs a command to the main power input unit 15 to turn on the main power of the display device 21
[0136] このように、画像処理部 6が視聴者の対象物特定コマンド (ジェスチャーコマンド)に より対象物 20を特定した場合のみならず、画像処理部 6は、適切な時期に、主電源 投入部 15に指令を出力し、表示装置 21の主電源をオンにすることができる。 [0136] As described above, not only when the image processing unit 6 specifies the object 20 by the viewer's object specifying command (gesture command), but the image processing unit 6 turns on the main power at an appropriate time. A command can be output to the unit 15 to turn on the main power supply of the display device 21.
実施例 5  Example 5
[0137] 本発明の実施例 5に係る電子装置は実施例 3に係る電子装置 40と同様の構成を 有しており、実施例 3にお 、て説明したジェスチャーコマンドに代えて視聴者の表情 や視線を特定する点のみが異なる。  The electronic device according to the fifth embodiment of the present invention has the same configuration as the electronic device 40 according to the third embodiment, and instead of the gesture command described in the third embodiment, the viewer's facial expression. The only difference is that it identifies the line of sight.
[0138] 従って、本発明の実施例 5に係る電子装置の動作は、ジェスチャーコマンドの検出 Accordingly, the operation of the electronic device according to the fifth embodiment of the present invention is to detect a gesture command.
(ステップ S5)に代えて視聴者の表情や視線の特定を行うこと以外は、図 10に示した フローチャートの動作と同様である。  The operation is the same as that of the flowchart shown in FIG. 10 except that instead of (step S5), the viewer's facial expression and line of sight are specified.
[0139] 視聴者の表情や視線を特定するための条件としては以下のような点が挙げられる。  [0139] Conditions for specifying the viewer's facial expression and line of sight include the following points.
(1)前準備  (1) Preparation
視聴者が存在する 3次元的空間の範囲を予め設定しておくことはジェスチャーコマ ンド (実施例 3)を用いる場合と全く同じである。  Setting the range of the three-dimensional space in which the viewer exists is exactly the same as using the gesture command (Example 3).
(2)対象物特定コマンドとコマンドメニュー  (2) Object identification command and command menu
画像処理部 6は対象物特定コマンドを提供する対象物 20を特定する必要がある。  The image processing unit 6 needs to specify the object 20 that provides the object specifying command.
[0140] 対象物特定コマンドとしては、所定周期のまばたきを所定回数以上連続して行う動 作、すなわち、目を閉じたり、開けたりする動作を繰り返す動作が考えられる。また、 同様に、所定周期で口を開け閉めする動作の所定数以上の繰り返しを対象物特定 コマンドとすることちでさる。 [0140] As the object specifying command, an operation in which blinking of a predetermined period is continuously performed a predetermined number of times or more, that is, an operation of repeatedly closing and opening eyes is considered. Similarly, repeat a specified number of repetitions of opening and closing the mouth at a predetermined cycle. It is a command.
[0141] ただし、これらの動作を対象物特定コマンドとすることにはカメラ 1、 2の解像度の問 題がある。ジェスチャーコマンドに比べ高 、解像度が要求されるからである。  [0141] However, there is a problem with the resolution of cameras 1 and 2 in order to make these operations as object specifying commands. This is because higher resolution is required compared to gesture commands.
[0142] さらに、以下に述べる「カーソル移動とコマンド選択」以降ではカメラ 1、 2にさらに高 い解像度が要求される。このため、対象物 20と思われるものが特定できたらカメラ 1、 2の焦点をその対象物 20に絞ってズームアップする必要がある。ズームアップ後に再 度対象物特定コマンドを再確認することが望まし 、。  [0142] Furthermore, after “cursor movement and command selection” described below, higher resolution is required for cameras 1 and 2. For this reason, if an object 20 is identified, the cameras 1 and 2 need to be focused on the object 20 and zoomed up. It is desirable to reconfirm the object identification command again after zooming up.
[0143] 画像処理部 6は、対象物 20を特定することができた場合には、対象物 20を特定し た旨を示す信号を表示制御部 7、発光制御部 12または音声制御部 14に送信し、報 知用発光部 11及び音声発生部 13を介して視聴者に対する報知を行わせる。  [0143] When the object 20 can be identified, the image processing unit 6 sends a signal indicating that the object 20 has been identified to the display control unit 7, the light emission control unit 12, or the audio control unit 14. The information is transmitted to the viewer via the notification light emitting unit 11 and the sound generation unit 13.
[0144] ここで、例えば、実施例 4に係る電子装置 50のように主電源投入部 15を備えている 場合であって、表示装置 21の電源がオフになっている場合は、画像処理部 6は対象 物 20を特定したときに、表示制御部 7に信号を送信し、主電源投入部 15を作動させ 、表示装置 21の主電源を投入させるとともに、対象物 20を特定できた旨を示す信号 を表示制御部 7に送信し、表示部 5にコマンドメニューを表示させる。  [0144] Here, for example, when the main power-on unit 15 is provided as in the electronic device 50 according to the fourth embodiment, and the display device 21 is turned off, the image processing unit When 6 identifies the object 20, it sends a signal to the display control unit 7 to operate the main power supply unit 15 to turn on the main power to the display device 21 and to indicate that the object 20 has been identified. The signal shown is transmitted to the display control unit 7 and the command menu is displayed on the display unit 5.
[0145] なお、既に表示装置 21の電源が入っている場合は、現在の表示部 5に表示されて いる画像に重ねて、あるいは、画像の一部を消してコマンドメニューを表示する。  Note that if the display device 21 is already turned on, the command menu is displayed so as to overlap the image currently displayed on the display unit 5 or to erase a part of the image.
[0146] これにより、対象物 20を特定した旨を視聴者に示すとともに、視聴者に次のコマン ドを促す。  [0146] This indicates to the viewer that the object 20 has been identified, and prompts the viewer for the next command.
(3)カーソル移動とコマンド選択  (3) Cursor movement and command selection
ジェスチャーコマンドと同様に、コマンドメニューにはチャネル選択メニューが含まれ て 、るので、視聴者はカーソル移動とコマンド選択とを行う必要がある。  Similar to gesture commands, the command menu includes a channel selection menu, so the viewer needs to move the cursor and select the command.
[0147] 例えば、視聴者がカーソルを移動する方向に視線を向けることにより、カーソルを移 動させるようにすることができる。すなわち、視聴者の白目の部分と黒目の部分とを画 像処理部 6により検出し、黒目部分がどの方向に偏っているかに応じて、視聴者の視 線が上下左右の 、ずれを向 、て 、るかを決定し、その方向にカーソルを動かすこと ができる。 [0147] For example, the cursor can be moved by turning the line of sight in the direction in which the viewer moves the cursor. That is, the viewer's white-eye and black-eye portions are detected by the image processing unit 6, and the viewer's line of sight is shifted vertically and horizontally depending on which direction the black-eye portion is biased. You can move the cursor in that direction.
[0148] し力しながら、この方法には 1つ問題がある。視聴者がその視線を左右や上下に向 けると表示装置 21の表示画面 4がよく見えなくなるため、視聴者にとってカーソルの 動きを判別しにくくなることである。 [0148] However, there is one problem with this method. Viewers turn their gaze from side to side or up and down If this is done, the display screen 4 of the display device 21 cannot be seen well, which makes it difficult for the viewer to determine the movement of the cursor.
[0149] そこで、例えば、次のような二段階の動作を行うことにより、カーソルを移動させるこ とが可能である。 [0149] Therefore, for example, the cursor can be moved by performing the following two-stage operation.
[0150] 例えば、カーソルを右方向に動かす場合を想定する。 [0150] For example, assume that the cursor is moved to the right.
[0151] この場合、第一に、視聴者は、視線を一旦右に動かし、再度視線を中央に戻す。第 二に、それでもカーソルの移動が不充分である場合には、再度視線を右に向ける。  [0151] In this case, first, the viewer temporarily moves the line of sight to the right and returns the line of sight to the center again. Second, if the cursor still does not move enough, turn your line of sight to the right again.
[0152] また、片目を閉じたり開いたりすることによりウィンクしている方向にカーソルを移動 させる方法もある。この方法では、カーソルを左右にのみし力移動できないという欠点 はあるが、画像処理部 6は、視線の向きの判別よりもずっと容易に判別することが可 能である。  [0152] There is also a method of moving the cursor in the winking direction by closing or opening one eye. This method has the drawback that the cursor cannot be moved only by moving left and right, but the image processing unit 6 can determine the direction of the line of sight much more easily.
[0153] コマンド選択を実行する動作としては、両目を閉じ、また、開く動作が考えられる。あ るいは、口を開き、また、閉じるという動作を所定の周期で繰り返す動作を選択するこ とちでさる。  [0153] As an operation for executing command selection, an operation of closing and opening both eyes can be considered. Or, it is possible to select an operation that repeats the operation of opening and closing the mouth at a predetermined cycle.
(4)終了コマンド  (4) Termination command
ジェスチャーコマンドを終了するときと同様に、視聴者の視線を検出するコマンドや 視聴者の表情を読み取るコマンドを終了する場合には、視聴者は終了コマンドを画 像処理部 6に対して提示する。  As in the case of ending the gesture command, when ending the command for detecting the viewer's line of sight or the command for reading the viewer's facial expression, the viewer presents the end command to the image processing unit 6.
[0154] 終了コマンドは、カーソル移動コマンド、カーソル選択コマンド、対象物特定コマン ド以外の動きにより示される。  [0154] The end command is indicated by a movement other than the cursor movement command, the cursor selection command, and the target object specifying command.
[0155] 例えば、手その他の視聴者の体の一部を所定の速さよりも早く往復させるジエスチ ヤーを終了コマンドにするというように、カーソル移動は視聴者の視線を検出するコマ ンド、終了コマンドはジェスチャーコマンドというように組み合わせることもできる。終了 コマンドがカーソル選択コマンドと同じである場合には、視聴者の手その他の視聴者 の体の一部を往復させる方向に応じて、終了コマンドをカーソル選択コマンドと区別 することちでさる。  [0155] For example, the cursor movement is a command that detects the viewer's line of sight, such as a gesture that causes a hand or other part of the viewer's body to reciprocate faster than a predetermined speed. Can be combined as a gesture command. When the end command is the same as the cursor selection command, the end command is distinguished from the cursor selection command according to the direction in which the viewer's hand or other part of the viewer's body is reciprocated.
[0156] また、視聴者の手その他の視聴者の体の一部の回転運動を終了コマンドにするこ ともできる。終了コマンドがカーソル選択コマンドと同じである場合には、視聴者の手 その他の視聴者の体の一部が回転する方向に応じて、終了コマンドをカーソル選択 コマンドと区別することが可能である。 [0156] In addition, the rotation command of the viewer's hand or other part of the viewer's body can be used as the end command. If the end command is the same as the cursor selection command, Depending on the direction in which the other part of the viewer's body rotates, the end command can be distinguished from the cursor selection command.
[0157] 画像処理部 6は視聴者の終了コマンドを検出すると、表示制御部 7に指令を送信し 、コマンドメニューを消去させ、表示部 5の画像を指示された状態にする。  [0157] When the image processing unit 6 detects the viewer's end command, it sends a command to the display control unit 7 to delete the command menu and place the image on the display unit 5 in the designated state.
[0158] また、画像処理部 6は、一定時間、視聴者カゝらコマンドが提供されな 、場合には、 その一定時間が経過したときに終了コマンドが提供されたものとみなすこともできる。 (5)その他  [0158] In addition, when the command is not provided from the viewer for a certain period of time, the image processing unit 6 can also be regarded as having provided the end command when the certain period of time has elapsed. (5) Other
ジェスチャーコマンドのときと同様に、画像処理部 6が視聴者のコマンドを一定時間 以上認識できなくなった場合には、画像処理部 6は対象物 20の特定ができなくなつ たことを視聴者に対して表示部 5の画像や音などにより示すことができる力 上述のよ うに、視聴者のコマンドが一定時間にわたって認識できない場合には、終了コマンド が提示されたとみなして、コマンド入力画面を終了することもできる。再度、コマンド入 力画面に戻るためには、視聴者は対象物特定コマンドを提示することが必要になる。  As in the case of the gesture command, when the image processing unit 6 cannot recognize the viewer's command for a certain period of time, the image processing unit 6 informs the viewer that the object 20 cannot be identified. As described above, if the viewer's command cannot be recognized for a certain period of time, it is considered that the end command has been presented and the command input screen is ended. You can also. To return to the command input screen again, the viewer needs to present an object specifying command.
[0159] なお、上記の各実施例においては、表示装置 21に対して適用される電子装置 10、 30、 40、 50についての説明を行ったため、対象物 20の位置が所定の範囲にある場 合、その対象物 20が「視聴者」であると判定する例を説明したが、表示装置以外の装 置に対して、上記の各実施例に係る電子装置 10、 30、 40、 50を適用する場合には 、「視聴者」はその装置の「操作者」に置き換えることができる。すなわち、その装置を 操作する意志があると解釈し、画像処理部 6はその旨を表示制御部 7に伝え、表示 制御部 7は表示部 5に操作画面を表示する。それ以後は、上記の各実施例と同様に 、例えば、ジェスチャーコマンドをカメラ 1、 2が撮像し、画像処理部 6で画像処理する ことにより、ジェスチャーコマンドを解釈し、その結果を表示制御部 7にフィードバック する。 [0159] Note that, in each of the above embodiments, the electronic devices 10, 30, 40, 50 applied to the display device 21 have been described, so that the position of the object 20 is within a predetermined range. In this case, the example in which the object 20 is determined to be a “viewer” has been described. However, the electronic devices 10, 30, 40, and 50 according to the above embodiments are applied to devices other than the display device. In this case, the “viewer” can be replaced with the “operator” of the device. That is, it is interpreted that there is an intention to operate the device, and the image processing unit 6 notifies the display control unit 7 to that effect, and the display control unit 7 displays an operation screen on the display unit 5. Thereafter, as in the above embodiments, for example, the camera 1 and 2 captures the gesture command, and the image processing unit 6 performs image processing to interpret the gesture command, and displays the result as the display control unit 7. Give feedback.
[0160] 上述の実施例 1乃至実施例 5に係る電子装置 10、 30、 40、 50において、カメラの 数は 2 (図 1参照)または 3 (図 6参照)とした力 カメラの数は 2または 3に限定されるも のではなぐ 4以上の任意の数を選択することもできる。また、それらのカメラを配置す る位置も、必要に応じて、任意に決定することができる。  [0160] In the electronic devices 10, 30, 40, 50 according to the first to fifth embodiments described above, the number of cameras is 2 (see Fig. 1) or 3 (see Fig. 6). The number of cameras is 2. Alternatively, any number greater than 4 can be selected, not limited to 3. In addition, the positions where these cameras are arranged can be arbitrarily determined as necessary.
[0161] 上述の実施例 1乃至実施例 5に係る電子装置 10、 30、 40、 50は表示制御部 7を 有するものとして構成されているが、必要に応じて、表示制御部 7を省略することもで きる。その場合には、例えば、表示装置 21がもともと有している表示制御部を上記の 実施例における表示制御部 7として用いることが可能である。 [0161] The electronic devices 10, 30, 40, and 50 according to the above-described first to fifth embodiments are provided with the display control unit 7. The display control unit 7 can be omitted if necessary. In that case, for example, the display control unit that the display device 21 originally has can be used as the display control unit 7 in the above embodiment.
[0162] 上述の実施例 1乃至実施例 5に係る電子装置 10、 30、 40、 50は表示装置 21に対 して付カ卩的に取り付けることができる。あるいは、上述の実施例 1乃至実施例 5に係る 電子装置 10、 30、 40、 50を予め表示装置 21に組み込むことも可能である。  The electronic devices 10, 30, 40, and 50 according to the above-described first to fifth embodiments can be attached to the display device 21 as an accessory. Alternatively, the electronic devices 10, 30, 40, and 50 according to the first to fifth embodiments described above can be incorporated in the display device 21 in advance.
[0163] 図 12は、上述の実施例 1に係る電子装置 10を備える表示装置 100の構造を示す ブロック図である。  FIG. 12 is a block diagram showing the structure of the display device 100 including the electronic device 10 according to Example 1 described above.
[0164] 図 12に示すように、表示装置 100は、カメラ 1、 2と、表示部 5と、画像処理部 6と、表 示制御部 7と、から構成される。  As shown in FIG. 12, display device 100 includes cameras 1 and 2, display unit 5, image processing unit 6, and display control unit 7.
[0165] 図 13は、上述の実施例 2に係る電子装置 30を備える表示装置 200の構造を示す ブロック図である。 FIG. 13 is a block diagram illustrating a structure of a display device 200 including the electronic device 30 according to the second embodiment.
[0166] 図 13に示すように、表示装置 200は、カメラ 1、 2と、表示部 5と、画像処理部 6と、表 示制御部 7と、視聴履歴生成部 8と、視聴履歴記憶部 9と、から構成される。  As shown in FIG. 13, display device 200 includes cameras 1 and 2, display unit 5, image processing unit 6, display control unit 7, viewing history generation unit 8, and viewing history storage unit. 9 and.
[0167] 図 14は、上述の実施例 3に係る電子装置 40または実施例 5に係る電子装置を備え る表示装置 300の構造を示すブロック図である。 FIG. 14 is a block diagram illustrating a structure of the display device 300 including the electronic device 40 according to the third embodiment or the electronic device according to the fifth embodiment.
[0168] 図 14に示すように、表示装置 300は、カメラ 1、 2と、表示部 5と、画像処理部 6と、表 示制御部 7と、報知用発光部 11と、発光制御部 12と、音声発生部 13と、音声制御部As shown in FIG. 14, display device 300 includes cameras 1 and 2, display unit 5, image processing unit 6, display control unit 7, notification light emitting unit 11, and light emission control unit 12. And voice generator 13 and voice controller
14と、から構成される。 14 and.
[0169] 図 15は、上述の実施例 4に係る電子装置 50を備える表示装置 400の構造を示す ブロック図である。  FIG. 15 is a block diagram illustrating a structure of a display device 400 including the electronic device 50 according to the fourth embodiment.
[0170] 図 15に示すように、表示装置 400は、カメラ 1、 2と、表示部 5と、画像処理部 6と、表 示制御部 7と、主電源投入部 15と、から構成される。  As shown in FIG. 15, display device 400 includes cameras 1 and 2, display unit 5, image processing unit 6, display control unit 7, and main power supply unit 15. .

Claims

請求の範囲 The scope of the claims
[1] 表示画面を有する表示部を備える表示装置の動作を制御する電子装置であって、 前記表示画面の前方の対象物の画像を画像信号に変換する少なくとも 2個の撮像 部と、  [1] An electronic device that controls the operation of a display device including a display unit having a display screen, wherein at least two imaging units that convert an image of an object in front of the display screen into an image signal;
前記画像信号を信号処理する画像処理部と、を備え、  An image processing unit that performs signal processing on the image signal,
前記画像処理部の信号処理結果に基づいて前記表示部の動作を制御することを 特徴とする電子装置。  An electronic apparatus that controls an operation of the display unit based on a signal processing result of the image processing unit.
[2] 前記画像処理部により特定された前記対象物の位置または形状に応じて前記表示 部の動作を制御することを特徴とする請求項 1に記載の電子装置。  2. The electronic device according to claim 1, wherein the operation of the display unit is controlled according to the position or shape of the object specified by the image processing unit.
[3] 前記画像処理部は前記撮像部が出力する前記画像信号間の相違に基づいて前 記対象物の位置を特定することを特徴とする請求項 1または 2に記載の電子装置。 [3] The electronic device according to [1] or [2], wherein the image processing unit specifies the position of the object based on a difference between the image signals output from the imaging unit.
[4] 前記画像処理部の信号処理結果に基づ!、て前記表示部に表示する画像を制御 する表示制御部をさらに備えることを特徴とする請求項 1乃至 3の何れか一項に記載 の電子装置。 [4] The display control unit according to any one of claims 1 to 3, further comprising a display control unit that controls an image displayed on the display unit based on a signal processing result of the image processing unit. Electronic devices.
[5] 前記表示制御部は、前記画像処理部により特定された前記対象物の位置または形 状に応じて前記表示部に表示する画像を制御することを特徴とする請求項 4に記載 の電子装置。  5. The electronic device according to claim 4, wherein the display control unit controls an image to be displayed on the display unit according to the position or shape of the object specified by the image processing unit. apparatus.
[6] 前記表示制御部は、前記対象物が所定の位置に位置するか、または、前記対象物 が所定の形状である場合に、前記表示部に表示する画像を前記対象物の動きに応 じて制御することを特徴とする請求項 4または 5に記載の電子装置。  [6] The display control unit responds to the movement of the target object when the target object is located at a predetermined position or the target object has a predetermined shape. The electronic device according to claim 4 or 5, wherein the electronic device is controlled at the same time.
[7] 前記表示制御部は、前記対象物が所定の位置に位置するか、または、前記対象物 が所定の形状である場合に、前記表示画面に複数のメニューと前記複数のメニュー の何れか 1つのメニューに対応する位置のカーソルとを表示し、前記対象物の動きに 応じて前記カーソルを移動させることを特徴とする請求項 4乃至 6の何れか一項に記 載の電子装置。  [7] The display control unit may select one of a plurality of menus and a plurality of menus on the display screen when the object is located at a predetermined position or when the object has a predetermined shape. 7. The electronic device according to claim 4, wherein a cursor at a position corresponding to one menu is displayed, and the cursor is moved according to the movement of the object.
[8] 前記表示制御部は、前記対象物の動きが所定の動きである場合に、前記カーソル の位置に対応するメニューが選択されたと判断し、前記メニューに対応する画像を前 記表示部に表示することを特徴とする請求項 7に記載の電子装置。 [8] When the movement of the object is a predetermined movement, the display control unit determines that a menu corresponding to the cursor position is selected, and displays an image corresponding to the menu on the display unit. 8. The electronic device according to claim 7, wherein the electronic device is displayed.
[9] 前記表示制御部は、前記対象物を見失った場合に、前記対象物を見失った旨を 示す情報を前記表示画面に表示することを特徴とする請求項 4乃至 8の何れか一項 に記載の電子装置。 [9] The display control unit according to any one of claims 4 to 8, wherein the display control unit displays, on the display screen, information indicating that the object is lost when the object is lost. An electronic device according to 1.
[10] 前記表示装置における過去の視聴履歴を生成する視聴履歴生成部と、  [10] A viewing history generation unit that generates a past viewing history in the display device;
前記視聴履歴生成部により生成された視聴履歴を記憶する視聴履歴記憶部と、を さらに備えており、  A viewing history storage unit that stores the viewing history generated by the viewing history generation unit,
前記表示制御部は、前記画像処理部により特定された前記対象物の位置または形 状及び日時に応じて、前記視聴履歴記憶部に記憶されている視聴履歴を検索し、視 聴される可能性の高い番組またはそのリストを前記表示部に表示するものであること を特徴とする請求項 4乃至 9の何れか一項に記載の電子装置。  The display control unit searches the viewing history stored in the viewing history storage unit according to the position or shape of the object specified by the image processing unit and the date and time, and may be viewed The electronic device according to claim 4, wherein a program having a high price or a list thereof is displayed on the display unit.
[11] 視聴者に対して報知動作を行う報知動作部と、 [11] A notification operation unit that performs a notification operation to a viewer;
前記画像処理部の制御下において前記報知動作部の報知動作を制御する報知 動作制御部と、をさらに備え、  A notification operation control unit that controls a notification operation of the notification operation unit under the control of the image processing unit, and
前記表示制御部は、前記画像処理部により特定された前記対象物の特定の動きを 検知した場合に、前記報知動作制御部が前記報知動作部を作動させるように前記 報知動作制御部に出力を発することを特徴とする請求項 4乃至 10の何れか一項に 記載の電子装置。  The display control unit outputs an output to the notification operation control unit so that the notification operation control unit operates the notification operation unit when detecting a specific movement of the object specified by the image processing unit. The electronic device according to claim 4, wherein the electronic device emits light.
[12] 表示画面を有する表示部を備える表示装置の動作を制御する電子装置の操作方 法であって、  [12] An operation method of an electronic device for controlling an operation of a display device including a display unit having a display screen,
前記表示画面の前方の所定の位置における所定の形状、所定の動き、または、前 記所定の形状の所定の動きを検出することにより対象物を特定する第 1の工程と、 前記第 1の工程に応答して、複数のメニューと、前記複数のメニューの何れか 1つ のメニューに対応する位置のカーソルとを前記表示画面に表示する第 2の工程と、 前記対象物の動きに応じて前記カーソルを移動させる第 3の工程と、  A first step of identifying an object by detecting a predetermined shape, a predetermined movement, or a predetermined movement of the predetermined shape at a predetermined position in front of the display screen; and the first step A second step of displaying a plurality of menus and a cursor at a position corresponding to any one of the plurality of menus on the display screen in response to the movement of the object. A third step to move the cursor,
前記対象物の動きに応じて前記カーソルの位置に対応するメニューを実行する第 4の工程と、  A fourth step of executing a menu corresponding to the position of the cursor according to the movement of the object;
を有することを特徴とする電子装置の操作方法。  A method of operating an electronic device, comprising:
[13] 前記対象物の位置を見失った場合に、前記第 1の工程を再度実行する旨を操作者 に対して報知する第 5の工程をさらに有することを特徴とする請求項 12に記載の電 子装置の操作方法。 [13] When the position of the object is lost, the operator indicates that the first step is to be executed again. 13. The method for operating an electronic device according to claim 12, further comprising a fifth step of notifying the electronic device.
[14] 少なくとも 2個の撮像部が前記対象物を撮影して出力する画像信号間の相違に基 づいて前記対象物の位置が所定の位置にあるかどうかを判定する第 6の工程をさら に有することを特徴とする請求項 12または 13に記載の電子装置の操作方法。  [14] A sixth step of determining whether or not the position of the object is at a predetermined position based on a difference between image signals output by imaging and outputting the object by at least two imaging units. 14. The method for operating an electronic device according to claim 12, wherein the electronic device is operated as described above.
[15] 前記第 2の工程にぉ ヽて前記表示装置の主電源を投入することを特徴とする請求 項 12乃至 14の何れか一項に記載の電子装置の操作方法。  15. The method of operating an electronic device according to claim 12, wherein a main power supply of the display device is turned on during the second step.
[16] 前記表示装置における過去の視聴履歴を生成し、記憶する第 7の工程と、  [16] a seventh step of generating and storing a past viewing history in the display device;
前記対象物の位置または形状及び日時に応じて、前記視聴履歴を検索する第 8の 工程と、  An eighth step of searching the viewing history according to the position or shape of the object and the date and time;
前記視聴履歴の検索結果に応じて、視聴される可能性の高 、番組またはそのリスト を前記表示部に表示する第 9の工程と、  According to a search result of the viewing history, a ninth step of displaying a program or a list thereof having a high possibility of being viewed on the display unit;
をさらに備えることを特徴とする請求項 12乃至 15の何れか一項に記載の電子装置 の操作方法。  16. The method for operating an electronic device according to claim 12, further comprising:
[17] 表示画面を有する表示部を備える表示装置の動作を制御する電子装置の操作方 法をコンピュータに実行させるためのプログラムであって、  [17] A program for causing a computer to execute an operation method of an electronic device for controlling an operation of a display device including a display unit having a display screen,
前記プログラムが行う処理は、  The processing performed by the program is as follows:
前記表示画面の前方の所定の位置における所定の形状、所定の動き、または、前 記所定の形状の所定の動きを検出することにより対象物を特定する第 1の処理と、 前記第 1の工程に応答して、複数のメニューと、前記複数のメニューの何れか 1つ のメニューに対応する位置のカーソルとを前記表示画面に表示する第 2の処理と、 前記対象物の動きに応じて前記カーソルを移動させる第 3の処理と、  A first process for identifying an object by detecting a predetermined shape, a predetermined movement, or a predetermined movement of the predetermined shape at a predetermined position in front of the display screen; and In response to the second process, a second process for displaying on the display screen a plurality of menus and a cursor at a position corresponding to any one of the plurality of menus, and depending on the movement of the object, A third process to move the cursor,
前記対象物の動きに応じて前記カーソルの位置に対応するメニューを実行する第 4の処理と、  A fourth process for executing a menu corresponding to the position of the cursor according to the movement of the object;
を含むことを特徴とするプログラム。  The program characterized by including.
[18] 表示画面を有する表示部と、 [18] a display unit having a display screen;
請求項 1乃至 11の何れか一項に記載の電子装置と、  An electronic device according to any one of claims 1 to 11,
を備える表示装置。  A display device comprising:
PCT/JP2007/056081 2006-03-27 2007-03-23 Electronic device and method for operating same WO2007116662A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006086135 2006-03-27
JP2006-086135 2006-03-27

Publications (1)

Publication Number Publication Date
WO2007116662A1 true WO2007116662A1 (en) 2007-10-18

Family

ID=38580961

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/056081 WO2007116662A1 (en) 2006-03-27 2007-03-23 Electronic device and method for operating same

Country Status (1)

Country Link
WO (1) WO2007116662A1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009245071A (en) * 2008-03-31 2009-10-22 Fujifilm Corp Layout determining method, program and device
JP2010237766A (en) * 2009-03-30 2010-10-21 Toshiba Corp Information processing apparatus, method and program for controlling command execution
JP2011513847A (en) * 2008-02-27 2011-04-28 ジェスチャー テック,インコーポレイテッド Advanced input using recognized gestures
JP2012138084A (en) * 2010-12-24 2012-07-19 Samsung Electro-Mechanics Co Ltd User interface apparatus and method using two-dimensional image sensor
JP2012190466A (en) * 2012-05-07 2012-10-04 Fujifilm Corp Layout determining method, program and device
JP5138833B2 (en) * 2010-06-08 2013-02-06 パナソニック株式会社 Image generating apparatus, method, and integrated circuit
WO2015015779A1 (en) * 2013-07-31 2015-02-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information presentation method, operation program, and information presentation system
JP2020061187A (en) * 2014-06-14 2020-04-16 マジック リープ, インコーポレイテッドMagic Leap,Inc. Methods and systems for creating virtual and augmented reality
US11507193B2 (en) 2014-06-14 2022-11-22 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128141A (en) * 1995-11-07 1997-05-16 Sony Corp Controller and control method
JP3062193U (en) * 1999-03-16 1999-09-28 日立ソフトウエアエンジニアリング株式会社 Image synthesis device
JP2002251235A (en) * 2001-02-23 2002-09-06 Fujitsu Ltd User interface system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128141A (en) * 1995-11-07 1997-05-16 Sony Corp Controller and control method
JP3062193U (en) * 1999-03-16 1999-09-28 日立ソフトウエアエンジニアリング株式会社 Image synthesis device
JP2002251235A (en) * 2001-02-23 2002-09-06 Fujitsu Ltd User interface system

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10025390B2 (en) 2008-02-27 2018-07-17 Qualcomm Incorporated Enhanced input using recognized gestures
US9164591B2 (en) 2008-02-27 2015-10-20 Qualcomm Incorporated Enhanced input using recognized gestures
US9507432B2 (en) 2008-02-27 2016-11-29 Qualcomm Incorporated Enhanced input using recognized gestures
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US11954265B2 (en) 2008-02-27 2024-04-09 Qualcomm Incorporated Enhanced input using recognized gestures
JP2011513847A (en) * 2008-02-27 2011-04-28 ジェスチャー テック,インコーポレイテッド Advanced input using recognized gestures
US11561620B2 (en) 2008-02-27 2023-01-24 Qualcomm Incorporated Enhanced input using recognized gestures
JP2009245071A (en) * 2008-03-31 2009-10-22 Fujifilm Corp Layout determining method, program and device
JP2010237766A (en) * 2009-03-30 2010-10-21 Toshiba Corp Information processing apparatus, method and program for controlling command execution
JP5138833B2 (en) * 2010-06-08 2013-02-06 パナソニック株式会社 Image generating apparatus, method, and integrated circuit
JP2012138084A (en) * 2010-12-24 2012-07-19 Samsung Electro-Mechanics Co Ltd User interface apparatus and method using two-dimensional image sensor
JP2012190466A (en) * 2012-05-07 2012-10-04 Fujifilm Corp Layout determining method, program and device
US9924231B2 (en) 2013-07-31 2018-03-20 Panasonic Intellectual Property Corporation Of America Information presentation method, operation program, and information presentation system
WO2015015779A1 (en) * 2013-07-31 2015-02-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information presentation method, operation program, and information presentation system
JPWO2015015779A1 (en) * 2013-07-31 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information presentation method, operation program, and information presentation system
JP2020061187A (en) * 2014-06-14 2020-04-16 マジック リープ, インコーポレイテッドMagic Leap,Inc. Methods and systems for creating virtual and augmented reality
US11507193B2 (en) 2014-06-14 2022-11-22 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality

Similar Documents

Publication Publication Date Title
WO2007116662A1 (en) Electronic device and method for operating same
US11470377B2 (en) Display apparatus and remote operation control apparatus
US9900498B2 (en) Glass-type terminal and method for controlling the same
WO2018003861A1 (en) Display device and control device
CN103916592B (en) For shooting the device and method of portrait in the portable terminal with camera
WO2019033957A1 (en) Interaction position determination method and system, storage medium and smart terminal
US20130088422A1 (en) Input apparatus and input recognition method
US10424116B2 (en) Display apparatus and controlling method thereof
EP2590396A1 (en) Information processing system, information processing device, and information processing method
JP5258399B2 (en) Image projection apparatus and control method thereof
US20130077831A1 (en) Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program
JP6534292B2 (en) Head mounted display and control method of head mounted display
WO2014208168A1 (en) Information processing device, control method, program, and storage medium
JP5228074B2 (en) Information processing apparatus and display control method
US10514755B2 (en) Glasses-type terminal and control method therefor
KR20170135762A (en) Gaze detection system
KR101795204B1 (en) Information processing device and recording medium
TWI691870B (en) Method and apparatus for interaction with virtual and real images
JP2016206617A (en) Display system
CN108369451B (en) Information processing apparatus, information processing method, and computer-readable storage medium
JP2016126687A (en) Head-mounted display, operation reception method, and operation reception program
KR20180074124A (en) Method of controlling electronic device with face recognition and electronic device using the same
JP5229928B1 (en) Gaze position specifying device and gaze position specifying program
TW201709022A (en) Non-contact control system and method
WO2014117675A1 (en) Information processing method and electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07739522

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 07739522

Country of ref document: EP

Kind code of ref document: A1