JP2009087095A - Electronic device control device, control method and control program - Google Patents

Electronic device control device, control method and control program Download PDF

Info

Publication number
JP2009087095A
JP2009087095A JP2007256626A JP2007256626A JP2009087095A JP 2009087095 A JP2009087095 A JP 2009087095A JP 2007256626 A JP2007256626 A JP 2007256626A JP 2007256626 A JP2007256626 A JP 2007256626A JP 2009087095 A JP2009087095 A JP 2009087095A
Authority
JP
Japan
Prior art keywords
image
recognition
screen
displayed
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007256626A
Other languages
Japanese (ja)
Inventor
Kensuke Okada
兼介 岡田
Shingo Kida
晋吾 木田
Masahiro Kitaura
正博 北浦
Kenji Tanaka
賢二 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2007256626A priority Critical patent/JP2009087095A/en
Publication of JP2009087095A publication Critical patent/JP2009087095A/en
Pending legal-status Critical Current

Links

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve operability by displaying an operating button for an object to be recognized such as a user's hand at a proper position in an electronic device configured to operate the operating button by holding the hand over the operating button displayed on a display device. <P>SOLUTION: A recognition information generating part 23 recognizes a part of the body of a user 3 photographed by a video camera 2 or an object held by the user 3, and generates recognition object information including the attributes and number of recognition objects, and the positions in a screen, etc. An image photographed by the video camera 2 is converted into a mirror image, and enlarged, reduced or adjusted in position according to the recognition object information while generating an operation image. The display position or range of the operating button is adjusted, and combined images are displayed on a screen of a display device 21. Predetermined selecting operation performed by an operator displayed on the screen, using the operating button, is detected to perform control operation corresponding to the operating button. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、テレビジョン受像機やパーソナルコンピュータのように表示装置を有する電子機器の遠隔操作を行うための電子機器の制御装置、制御方法及び制御プログラムに関する。   The present invention relates to a control device, control method, and control program for an electronic device for remotely operating an electronic device having a display device such as a television receiver or a personal computer.

テレビジョン受像機をはじめとする家電機器を手元で制御するためのユーザーインターフェースが広く普及し、家電製品の利用形態を大きく変貌させた。現在においてもこの操作形態が主流であるが、リモコンは1機能を1押しで実行する仕組みが基本となっており、例えばテレビジョン受像機では、「電源」「チャンネル」「音量」「入力切替」などのキーがそれに該当し、これまでのテレビジョン受像機にとって大変便利な遠隔の操作方法であった。   User interfaces for controlling home appliances such as television receivers at hand have become widespread and have greatly changed the way home appliances are used. At present, this type of operation is still mainstream, but the remote control is based on a mechanism that executes one function with one push. For example, in a television receiver, “power”, “channel”, “volume”, “input switching”. Such a key corresponds to this, and it has been a very convenient remote operation method for a conventional television receiver.

ところで、最近始まったデータ放送は、所望のメニュー画面を選択するために、リモコンの「上下左右」や「決定」キーを何度も押下することになり、煩雑で使いづらくなっている。また、EPG(電子プログラムガイド)は、マトリクスに配列された案内画面から所望の位置を選択してキーを押下するため、同様の課題を有していた。   By the way, recently started data broadcasting requires pressing the “up / down / left / right” and “decision” keys of the remote controller many times in order to select a desired menu screen, which is cumbersome and difficult to use. Further, EPG (Electronic Program Guide) has a similar problem because it selects a desired position from a guide screen arranged in a matrix and presses a key.

本出願人による先願である特開2006−091948号公報(特許文献1)には、多様な電子機器に対する柔軟性と遠隔操作の利便性を両立させるとともに、リモコンのような遠隔操作用機器を手元で利用することを不要とした電子機器が提案されている。特許文献1に記載の電子機器はユーザーの手の動作をビデオカメラで撮影して、その動作から表示装置に表示されている操作ボタンに対する操作内容を識別するものである。
特開2003−283866号公報
Japanese Patent Application Laid-Open No. 2006-091948 (Patent Document 1), which is a prior application by the present applicant, provides both flexibility for various electronic devices and convenience of remote operation, and also provides remote operation devices such as a remote controller. Electronic devices that do not require use at hand have been proposed. The electronic device described in Patent Literature 1 captures the operation of a user's hand with a video camera and identifies the operation content for the operation button displayed on the display device from the operation.
JP 2003-283866 A

しかしながら、上述した特許文献1に記載の電子機器においては、ユーザーの手などの対象物を認識し、表示装置に表示されているユーザーが操作ボタンに手をかざすなど、操作ボタンに対する対象物の挙動を検出して、操作内容を識別するものであるが、例えば操作ボタンの表示位置が、認識されたユーザーの手の位置に対して適当ではなく、操作ボタンが操作しづらいことがある。   However, in the electronic apparatus described in Patent Document 1 described above, the behavior of the object with respect to the operation button, such as recognizing an object such as a user's hand and holding the hand on the operation button by the user displayed on the display device. However, for example, the display position of the operation button is not appropriate for the recognized position of the user's hand, and the operation button may be difficult to operate.

本発明はこの点に着目してなされたものであり、表示装置に表示された操作ボタンに手などをかざして操作ボタンを操作する電子機器において、ユーザーの手などの認識対象物に対する操作ボタンの表示位置を適切なものとし、その操作性を向上させることのできる電子機器の制御装置、制御方法及び制御プログラムを提供することを目的とする。   The present invention has been made paying attention to this point, and in an electronic apparatus that operates an operation button by holding the hand or the like over the operation button displayed on the display device, the operation button for the recognition target object such as a user's hand is provided. An object of the present invention is to provide a control device, control method, and control program for an electronic device that can make the display position appropriate and improve the operability.

上記課題を解決するために、請求項1に係る発明は、表示装置を有する電子機器の制御装置であって、操作者を撮影するビデオカメラと、前記ビデオカメラによって撮影された前記操作者の身体の一部又は操作者が保持する物体である対象物を認識し、この認識された認識対象物の属性、個数、前記表示装置の画面内における位置、又は画面内に占める面積の割合のうちの少なくとも一つを含む認識対象物情報を生成する認識情報生成部と、前記ビデオカメラによって撮影した画像を、鏡像変換し、前記認識対象物情報に応じて、前記画面上に表示された前記認識対象物の拡大、縮小又は位置の調整を行う鏡像画像調整部と、少なくとも1つの操作ボタンを含む操作用画像を生成し、前記認識対象物情報に応じて、前記操作ボタンの表示位置又は範囲を調整する操作用画像生成部と、前記鏡像画像調整部を経た画像と、前記操作用画像とを混合して混合画像を形成し、この混合画像を前記画面上に表示させる画像信号混合部と、前記画像信号混合部により混合された画像を前記画面上に表示させた状態において、前記ビデオカメラによって撮影され、前記画面に表示された操作者が、前記認識対象物を用いて前記操作ボタンを選択する所定の選択動作を検出する動作検出部と、前記動作検出部により前記所定選択動作が検出された操作ボタンに対応する制御動作を行う機器制御部とを備えることを特徴とする電子機器の制御装置である。   In order to solve the above-mentioned problems, the invention according to claim 1 is a control device for an electronic apparatus having a display device, and includes a video camera for photographing an operator and the body of the operator photographed by the video camera. Of the object or the object held by the operator, the attribute of the recognized recognition object, the number, the position of the display device on the screen, or the ratio of the area occupied in the screen A recognition information generation unit that generates recognition object information including at least one, and an image captured by the video camera is mirror-image converted, and the recognition object displayed on the screen according to the recognition object information A mirror image adjustment unit for enlarging, reducing, or adjusting the position of an object and an operation image including at least one operation button are generated, and the display position of the operation button is determined according to the recognition object information Is an image signal mixing unit that forms an image by mixing the operation image generation unit that adjusts the range, the image that has passed through the mirror image adjustment unit, and the operation image, and displays the mixed image on the screen. And an image captured by the video camera and displayed on the screen in a state where the image mixed by the image signal mixing unit is displayed on the screen, the operator operates the operation using the recognition object. An electronic apparatus comprising: an operation detection unit that detects a predetermined selection operation for selecting a button; and an appliance control unit that performs a control operation corresponding to the operation button for which the predetermined selection operation is detected by the operation detection unit. It is a control device of the equipment.

このような発明によれば、操作者の画像と、操作ボタンを含む操作用画像とを混合した混合画像を表示させ、画面内における操作者の操作ボタンに対する動作を検出して電子機器に対する制御動作を実行する際に、対象物の属性、個数、測定領域内における位置、又は所定の面積に占める面積の割合に応じて、画面上の操作者の大きさや位置、操作ボタンの表示位置や範囲を調整するため、操作(動作)を行う操作者の手や顔などの表示位置に合わせて、適切な位置や範囲に操作ボタンを表示することができ、操作性を向上させることができる。   According to such an invention, a mixed image obtained by mixing the operator's image and the operation image including the operation button is displayed, and the operation for the operation button of the operator in the screen is detected to control the electronic device. The size and position of the operator on the screen and the display position and range of the operation buttons are determined according to the attribute, number of objects, position in the measurement area, or the ratio of the area to the predetermined area. Since the adjustment is performed, the operation buttons can be displayed at an appropriate position and range in accordance with the display position of the hand or face of the operator who performs the operation (operation), and the operability can be improved.

請求項2に係る発明は、請求項1に係る発明において、前記操作用画像生成部が、前記認識対象物情報に含まれる認識対象物の属性が操作者の手であり、且つ該認識対象物の個数が一つである場合に、画面上に表示された認識対象物の周囲に前記操作ボタンを集合させて配置させ、前記認識対象物の属性が操作者の手であり、且つ前記認識対象物の個数が2個以上である場合には、画面上に表示された認識対象物それぞれの周囲に、前記操作ボタンを分散させて配置することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the operation image generation unit is configured such that the attribute of the recognition target included in the recognition target information is an operator's hand, and the recognition target The operation buttons are gathered and arranged around the recognition object displayed on the screen, the attribute of the recognition object is an operator's hand, and the recognition object In the case where the number of objects is two or more, the operation buttons are distributed and arranged around each recognition object displayed on the screen.

この場合には、操作者の手を認識対象物とした際に、その個数を判断することにより、片手での操作を前提として操作ボタンを、片手の周囲に集中させて表示したり、両手での操作を前提として操作ボタンを、両手に分配させて表示させることができ、操作者の好みに応じたインターフェースを提供することができる。   In this case, when the operator's hand is used as the recognition target, the number of the buttons is determined, so that the operation buttons are displayed in a concentrated manner around one hand on the assumption that the operation is performed with one hand. The operation buttons can be distributed and displayed on both hands on the premise of the above operation, and an interface according to the preference of the operator can be provided.

請求項3に係る発明は、請求項1に係る発明において、前記操作用画像生成部が、前記認識対象物情報に含まれる認識対象物の属性が操作者の顔である場合に、画面上に表示された該認識対象物の周囲に前記操作ボタンを配置することを特徴とする。   According to a third aspect of the present invention, in the first aspect of the invention, the operation image generating unit may be displayed on the screen when the attribute of the recognition target included in the recognition target information is an operator's face. The operation buttons are arranged around the displayed recognition object.

この場合には、手よりも認識が確実な顔を認識対象とすることにより認識動作の精度を高めることができるとともに、顔の周辺(左右上下のいずれかに集中、周囲や両側に分散など)に操作ボタンを表示させることにより、操作者は必要最低限の大きさの動作で操作ボタンに対する操作が可能となり、動作の精度を高めつつ、操作性を高めることができる。   In this case, it is possible to improve the accuracy of the recognition operation by using a face that is more reliable than the hand as the recognition target, and at the periphery of the face (concentrated on either the left, right, top or bottom, distributed on the periphery or both sides) By displaying the operation buttons on the screen, the operator can operate the operation buttons with an operation of a minimum necessary size, and the operability can be improved while improving the accuracy of the operation.

なお、この顔を認識する手法では、例えば、複数の顔を認識可能とし、認識された各顔の周辺に、操作ボタンをそれぞれ表示させるようにしてもよい。この場合には、複数人で視聴しているような場合であっても、各人がそれぞれ自分の周囲の操作ボタンを操作することができるため、各人が必要最低限の動作で操作を行うことができる。   In this face recognition method, for example, a plurality of faces may be recognized, and operation buttons may be displayed around the recognized faces. In this case, even when multiple people are watching, each person can operate the operation buttons around them, so that each person operates with the minimum necessary operation. be able to.

請求項4に係る発明は、請求項1乃至3のいずれかにかかる発明において、 前記操作用画像生成部が、前記認識対象物情報に含まれる認識対象物の属性及び個数に応じて、前記操作ボタンの表示位置を切り替えることを特徴とする。   The invention according to claim 4 is the invention according to any one of claims 1 to 3, wherein the operation image generation unit performs the operation according to the attribute and the number of recognition objects included in the recognition object information. The display position of the button is switched.

この場合には、手や顔など複数種を認識対象物とすることにより、より確実に認識が可能な対象物を優先させて認識したり、ユーザー操作で任意の認識対象物を選択したりするなど、適宜認識対象物を切り替える動作を行い、その切り替えられた認識対象物の種別に応じて操作ボタンの配置を適宜切り替えることによって、操作動作の認識手法及びユーザーインターフェースの多様化を図り、使用環境やユーザー趣向に適切に対応することができる。   In this case, by using multiple types of recognition objects such as hands and faces, priority is given to objects that can be recognized more reliably, or arbitrary recognition objects are selected by user operations. The operation environment is appropriately switched by performing the operation of switching the recognition object as appropriate, and switching the operation buttons as appropriate according to the type of the recognized recognition object. And can respond appropriately to user preferences.

請求項5に係る発明は、請求項1乃至4のいずれかにかかる発明において、 前記操作ボタンが、その属性に従ってグループ分けにされており、前記操作用画面では、前記操作ボタンがグループ単位で表示されるとともに、操作者の選択操作に応じて、グループ単位で活性化又は非活性化が切り替えられ、前記活性化されたグループの表示範囲には、前記鏡像画像調整部を経た画像と、前記操作用画像とが混合され、前記非活性化されたグループについては、少なくともそのグループの属性に関する情報が該グループの表示範囲内に表示されることを特徴とする。   The invention according to claim 5 is the invention according to any one of claims 1 to 4, wherein the operation buttons are grouped according to their attributes, and the operation buttons are displayed in groups on the operation screen. In addition, activation or deactivation is switched in units of groups according to an operator's selection operation, and the display range of the activated group includes an image that has passed through the mirror image adjustment unit, and the operation For the inactivated group mixed with the image for use, at least information on the attribute of the group is displayed in the display range of the group.

この場合には、例えば、地上波放送や衛星放送(BSやCS等)、入力端子などの放送方式や入力種別に応じて操作ボタンがグルーピングされることから、ユーザーが所望する操作ボタンへのアクセスが容易となる。また、グルーピングの表示に際し、操作可能なグループを活性化(アクティブ化)させ、そこに操作者画像を混合することから、操作者は操作可能な操作ボタンを直感的に把握することができる。一方、他のグループについては非活性化(非アクティブ化)するが、少なくともその非活性化されているグループの属性情報については表示されているため、操作者は、現在操作できないまでも他の選択肢としてのグループが存在することを直感的に把握することができる。   In this case, for example, since the operation buttons are grouped according to the broadcasting system and input type such as terrestrial broadcasting, satellite broadcasting (BS, CS, etc.), input terminals, etc., the user can access the operation buttons desired by the user. Becomes easy. Further, when displaying the grouping, the operable group is activated (activated), and the operator image is mixed there. Therefore, the operator can intuitively grasp the operable buttons. On the other hand, other groups are deactivated (deactivated), but at least the attribute information of the deactivated group is displayed, so the operator can select other options even if the current operation cannot be performed. It is possible to intuitively grasp that there is a group.

請求項6に係る発明は、請求項1乃至5のいずれかにかかる発明において、 前記操作用画像生成部が、前記動作検出部による前記選択動作の検出に基づいて、操作に関する情報を図形又は文字により表示するガイダンスアイコンを生成する機能を有することを特徴とする。   The invention according to claim 6 is the invention according to any one of claims 1 to 5, wherein the operation image generation unit displays information related to an operation in the form of a graphic or a character based on the detection of the selection operation by the operation detection unit. It has the function to produce | generate the guidance icon displayed by this.

この場合には、操作者の操作ボタンに対する動作が検出された際に、次の操作(動作)に関する情報(ガイダンスやヒント)を表示することができるため、操作者の円滑な操作を誘導することができ、操作性を向上させることができる。   In this case, when an operation on the operation button of the operator is detected, information (guidance and hints) on the next operation (motion) can be displayed, so that the operator can smoothly perform the operation. And operability can be improved.

請求項7に係る発明は、操作者を撮影するビデオカメラと、表示装置とを有する電子機器の制御方法であって、認識情報生成部により、前記ビデオカメラによって撮影された前記操作者の身体の一部又は操作者が保持する物体である対象物を認識し、この認識された認識対象物の属性、個数、前記表示装置の画面内における位置、又は該画面内に占める面積の割合のうちの少なくとも一つを含む認識対象物情報を生成する認識情報生成ステップと、鏡像画像調整部により、前記ビデオカメラによって撮影した画像を鏡像変換し、前記認識対象物情報に応じて、前記画面上に表示された前記認識対象物の拡大、縮小又は位置の調整を行う鏡像画像調整ステップと、操作用画像生成部により、少なくとも1つの操作ボタンを含む操作用画像を生成し、前記認識対象物情報に応じて、前記操作ボタンの表示位置又は範囲を調整する操作用画像生成ステップと、前記鏡像画像調整部を経た画像と、前記操作用画像とを画像信号混合部において混合して混合画像を形成し、この混合画像を前記画面上に表示させる画像信号混合ステップと、前記画像信号混合部により混合された画像を前記画面上に表示させた状態において、前記ビデオカメラによって撮影され、前記画面に表示された操作者が、前記認識対象物を用いて前記操作ボタンを選択する所定の選択動作を動作検出部により検出する動作検出ステップと、前記動作検出部により前記所定選択動作が検出された操作ボタンに対応する制御動作を機器制御部により行う機器制御ステップとを含むことを特徴とする電子機器の制御方法である。   The invention according to claim 7 is a method for controlling an electronic apparatus having a video camera for photographing an operator and a display device, wherein the body of the operator photographed by the video camera by a recognition information generation unit. Recognizing a target object that is a part or an object held by an operator, and the attribute of the recognized recognition target object, the number, the position in the screen of the display device, or the ratio of the area occupied in the screen A recognition information generation step for generating recognition object information including at least one, and a mirror image adjustment unit that performs mirror image conversion on an image captured by the video camera and displays the image on the screen according to the recognition object information An operation image including at least one operation button is generated by the mirror image adjustment step for enlarging, reducing, or adjusting the position of the recognized recognition object, and the operation image generator. The operation image generation step for adjusting the display position or range of the operation button according to the recognition object information, the image that has passed through the mirror image adjustment unit, and the operation image are mixed in the image signal mixing unit. Then, an image signal mixing step of forming a mixed image and displaying the mixed image on the screen, and an image mixed by the image signal mixing unit being displayed on the screen and photographed by the video camera An operation detection step in which an operation displayed on the screen detects a predetermined selection operation by which the operator selects the operation button using the recognition target object by an operation detection unit; and the predetermined selection operation by the operation detection unit. And a device control step of performing a control operation corresponding to the operation button detected by the device control unit.

このような発明によれば、操作者の画像と、操作ボタンを含む操作用画像とを混合した混合画像を表示させ、画面内における操作者の操作ボタンに対する動作を検出して電子機器に対する制御動作を実行する際に、対象物の属性、個数、測定領域内における位置、又は所定の面積に占める面積の割合に応じて、画面上の操作者の大きさや位置、操作ボタンの表示位置や範囲を調整するため、操作(動作)を行う操作者の手や顔などの表示位置に合わせて、適切な位置や範囲に操作ボタンを表示することができ、操作性を向上させることができる。   According to such an invention, a mixed image obtained by mixing the operator's image and the operation image including the operation button is displayed, and the operation for the operation button of the operator in the screen is detected to control the electronic device. The size and position of the operator on the screen and the display position and range of the operation buttons are determined according to the attribute, number of objects, position in the measurement area, or the ratio of the area to the predetermined area. Since the adjustment is performed, the operation buttons can be displayed at an appropriate position and range in accordance with the display position of the hand or face of the operator who performs the operation (operation), and the operability can be improved.

請求項8に係る発明は、請求項7に係る発明において、前記画像生成ステップで、前記操作用画像生成部が、前記認識対象物情報に含まれる認識対象物の属性が操作者の手であり、且つ 該認識対象物の個数が一つである場合に、前記画面上に表示された認識対象物の周囲に前記操作ボタンを集合させて配置させ、前記認識対象物の属性が操作者の手であり、且つ前記認識対象物の個数が2個以上である場合には、画面上に表示された認識対象物それぞれの周囲に、前記操作ボタンを分散させて配置することを特徴とする。   The invention according to claim 8 is the invention according to claim 7, wherein, in the image generation step, the operation image generation unit is configured such that the attribute of the recognition object included in the recognition object information is an operator's hand. When the number of the recognition objects is one, the operation buttons are gathered and arranged around the recognition objects displayed on the screen, and the attributes of the recognition objects are determined by the operator's hand. And the number of the recognition objects is two or more, the operation buttons are distributed around the recognition objects displayed on the screen.

この場合には、操作者の手を認識対象物とした際に、その個数を判断することにより、片手での操作を前提として操作ボタンを、片手の周囲に集中させて表示したり、両手での操作を前提として操作ボタンを、両手に分配させて表示させることができ、操作者の好みに応じたインターフェースを提供することができる。   In this case, when the operator's hand is used as the recognition target, the number of the buttons is determined, so that the operation buttons are displayed in a concentrated manner around one hand on the assumption that the operation is performed with one hand. The operation buttons can be distributed and displayed on both hands on the premise of the above operation, and an interface according to the preference of the operator can be provided.

請求項9に係る発明は、請求項7に係る発明において、前記画像生成ステップで前記操作用画像生成部が、前記認識対象物情報に含まれる認識対象物の属性が操作者の顔である場合に、画面上に表示された該認識対象物の周辺に前記操作ボタンを配置することを特徴とする。   The invention according to claim 9 is the invention according to claim 7, wherein, in the image generation step, the operation image generation unit is configured such that the attribute of the recognition object included in the recognition object information is an operator's face. In addition, the operation buttons are arranged around the recognition object displayed on the screen.

この場合には、手よりも認識が確実な顔を認識対象とすることにより認識動作の精度を高めることができるとともに、顔の周辺(左右上下のいずれかに集中、周囲や両側に分散など)に操作ボタンを表示させることにより、操作者は必要最低限の大きさの動作で操作ボタンに対する操作が可能となり、動作の精度を高めつつ、操作性を高めることができる。   In this case, it is possible to improve the accuracy of the recognition operation by using a face that is more reliable than the hand as the recognition target, and at the periphery of the face (concentrated on either the left, right, top or bottom, distributed on the periphery or both sides, etc.) By displaying the operation buttons on the screen, the operator can operate the operation buttons with an operation of a minimum necessary size, and the operability can be improved while improving the accuracy of the operation.

なお、この顔を認識する手法では、例えば、複数の顔を認識可能とし、認識された各顔の周辺に、操作ボタンをそれぞれ表示させるようにしてもよい。この場合には、複数人で視聴しているような場合であっても、各人がそれぞれ自分の周囲の操作ボタンを操作することができるため、各人が必要最低限の動作で操作を行うことができる。   In this face recognition method, for example, a plurality of faces may be recognized, and operation buttons may be displayed around the recognized faces. In this case, even when multiple people are watching, each person can operate the operation buttons around them, so that each person operates with the minimum necessary operation. be able to.

請求項10に係る発明は、請求項7乃至9のいずれかに係る発明において、前記画像生成ステップで前記操作用画像生成部が、前記認識対象物情報に含まれる認識対象物の属性及び個数に応じて、前記操作ボタンの表示位置を切り替えることを特徴とする。   According to a tenth aspect of the present invention, in the invention according to any of the seventh to ninth aspects, in the image generation step, the operation image generation unit sets the attribute and number of recognition objects included in the recognition object information. In response, the display position of the operation button is switched.

この場合には、手や顔など複数種を認識対象物とすることにより、より確実に認識が可能な対象物を優先させて認識したり、ユーザー操作で任意の認識対象物を選択したりするなど、適宜認識対象物を切り替える動作を行い、その切り替えられた認識対象物の種別に応じて操作ボタンの配置を適宜切り替えることによって、操作動作の認識手法及びユーザーインターフェースの多様化を図り、使用環境やユーザー趣向に適切に対応することができる。   In this case, by using multiple types of recognition objects such as hands and faces, priority is given to objects that can be recognized more reliably, or arbitrary recognition objects are selected by user operations. The operation environment is appropriately switched by performing the operation of switching the recognition object as appropriate, and switching the operation buttons as appropriate according to the type of the recognized recognition object. And can respond appropriately to user preferences.

請求項11に係る発明は、請求項7乃至10のいずれかに係る発明において、 操作用画像生成ステップで生成される前記操作ボタンが、その属性に従ってグループ分けにされており、前記操作用画像生成ステップで生成される前記操作用画面では、前記操作ボタンがグループ単位で表示されるとともに、操作者の選択操作に応じて、グループ単位で活性化又は非活性化が切り替えられ、画像信号混合ステップにおいて、前記活性化されたグループの表示範囲には、前記鏡像画像調整部を経た画像と、前記操作用画像とが混合されるとともに、前記非活性化されたグループについては、少なくともそのグループの属性に関する情報が該グループの表示範囲内に表示されることを特徴とする。   The invention according to claim 11 is the invention according to any one of claims 7 to 10, wherein the operation buttons generated in the operation image generation step are grouped according to their attributes, and the operation image generation In the operation screen generated in step, the operation buttons are displayed in units of groups, and activated or deactivated are switched in units of groups according to an operator's selection operation. In the image signal mixing step The display range of the activated group is mixed with the image that has passed through the mirror image adjustment unit and the operation image, and at least the attribute of the deactivated group is related to the group Information is displayed within the display range of the group.

この場合には、例えば、地上波放送や衛星放送(BSやCS等)、入力端子などの放送方式や入力種別に応じて操作ボタンがグルーピングされることから、ユーザーが所望する操作ボタンへのアクセスが容易となる。また、グルーピングの表示に際し、操作可能なグループを活性化(アクティブ化)させ、そこに操作者画像を混合することから、操作者は操作可能な操作ボタンを直感的に把握することができる。一方、他のグループについては非活性化(非アクティブ化)するが、少なくともその非活性化されているグループの属性情報については表示されているため、操作者は、現在操作できないまでも他の選択肢としてのグループが存在することを直感的に把握することができる。   In this case, for example, since the operation buttons are grouped according to the broadcasting system and input type such as terrestrial broadcasting, satellite broadcasting (BS, CS, etc.), input terminals, etc., the user can access the operation buttons desired by the user. Becomes easy. Further, when displaying the grouping, the operable group is activated (activated), and the operator image is mixed there. Therefore, the operator can intuitively grasp the operable buttons. On the other hand, other groups are deactivated (deactivated), but at least the attribute information of the deactivated group is displayed, so the operator can select other options even if the current operation cannot be performed. It is possible to intuitively grasp that there is a group.

請求項12に係る発明は、請求項7乃至11のいずれかに係る発明において、動作検出ステップで、前記操作用画像生成部は、前記動作検出部による前記選択動作の検出に基づいて、操作に関する情報を図形又は文字により表示するガイダンスアイコンを生成する機能を有することを特徴とする。   The invention according to a twelfth aspect is the invention according to any one of the seventh to eleventh aspects, wherein in the operation detection step, the operation image generation unit relates to an operation based on the detection of the selection operation by the operation detection unit. It has a function of generating a guidance icon for displaying information in graphics or characters.

この場合には、操作者の操作ボタンに対する動作が検出された際に、次の操作(動作)に関する情報(ガイダンスやヒント)を表示することができるため、操作者の円滑な操作を誘導することができ、操作性を向上させることができる。   In this case, when an operation on the operation button of the operator is detected, information (guidance and hints) on the next operation (motion) can be displayed, so that the operator can smoothly perform the operation. And operability can be improved.

請求項13に係る発明は、操作者を撮影するビデオカメラと、表示装置とを有する電子機器の制御をコンピュータを用いて行わせる制御プログラムであって、前記コンピューターに、認識情報生成部により、前記ビデオカメラによって撮影された前記操作者の身体の一部又は操作者が保持する物体である対象物を認識し、この認識された認識対象物の属性、個数、前記表示装置の画面内における位置、又は該画面内に占める面積の割合のうちの少なくとも一つを含む認識対象物情報を生成する認識情報生成ステップと、鏡像画像調整部により、前記ビデオカメラによって撮影した画像を鏡像変換し、前記認識対象物情報に応じて、前記画面上に表示された前記認識対象物の拡大、縮小又は位置の調整を行う鏡像画像調整ステップと、操作用画像生成部により、少なくとも1つの操作ボタンを含む操作用画像を生成し、前記認識対象物情報に応じて、前記操作ボタンの表示位置又は範囲を調整する操作用画像生成ステップと、前記鏡像画像調整部を経た画像と、前記操作用画像とを画像信号混合部において混合して混合画像を形成し、この混合画像を前記画面上に表示させる画像信号混合ステップと、前記画像信号混合部により混合された画像を前記画面上に表示させた状態において、前記ビデオカメラによって撮影され、前記画面に表示された操作者が、前記認識対象物を用いて前記操作ボタンを選択する所定の選択動作を動作検出部により検出する動作検出ステップと、前記動作検出部により前記所定選択動作が検出された操作ボタンに対応する制御動作を機器制御部により行う機器制御ステップとを実行させることを特徴とする。   The invention according to claim 13 is a control program that causes a computer to control an electronic device having a video camera that captures an operator and a display device, and the computer uses the recognition information generation unit to execute the control. Recognizing an object which is a part of the operator's body or an object held by the operator, which is photographed by a video camera, and the attributes and number of the recognized objects to be recognized, positions on the screen of the display device, Or a recognition information generation step for generating recognition target object information including at least one of the proportion of the area in the screen, and a mirror image adjustment unit that converts the image captured by the video camera into a mirror image, and the recognition A mirror image adjustment step for enlarging, reducing, or adjusting the position of the recognition object displayed on the screen according to the object information; An operation image generation step of generating an operation image including at least one operation button by the generation unit, and adjusting a display position or range of the operation button according to the recognition object information; and the mirror image adjustment unit And the operation image are mixed in the image signal mixing unit to form a mixed image, and the mixed image is displayed on the screen and mixed by the image signal mixing unit. In a state in which an image is displayed on the screen, an operation detection unit performs a predetermined selection operation in which an operator, which is captured by the video camera and displayed on the screen, selects the operation button using the recognition target object The device control unit performs an operation detection step detected by the control unit and a control operation corresponding to the operation button for which the predetermined selection operation is detected by the operation detection unit. Characterized in that to execute a vessel control step.

このような発明によれば、汎用のコンピューターや専用コンピューターを用いて、上述した装置や方法を実施することが可能となるとともに、このプログラムをコンピューター読み取り可能な記録媒体に記録することにより、プログラムの保存、運搬及びインストールを容易に行うことができる。   According to such an invention, the above-described apparatus and method can be implemented using a general-purpose computer or a dedicated computer, and the program can be recorded by recording the program on a computer-readable recording medium. Storage, transportation and installation can be performed easily.

本発明によれば、表示装置に表示された操作ボタンに手などをかざして操作ボタンを操作する電子機器において、ユーザーの手などの認識対象物に対する操作ボタンの表示位置を適切なものとし、その操作性を向上させることができる。   According to the present invention, in an electronic device that operates an operation button by holding the hand over the operation button displayed on the display device, the display position of the operation button with respect to the recognition target object such as the user's hand is appropriate, Operability can be improved.

(電子機器の制御方法の概要)
図1は、本実施形態において、電子機器(テレビジョン受像機1)を制御する方法を示す説明図である。
(Outline of electronic device control method)
FIG. 1 is an explanatory diagram illustrating a method for controlling an electronic apparatus (television receiver 1) in the present embodiment.

本実施形態の操作方法では、テレビジョン受像機1に、ビデオカメラ2が設けられており、ビデオカメラ2によりユーザ3が撮影され、ビデオカメラ2の画像からユーザ3の動作を認識し、その認識された動作に応じてテレビジョン受像機1及びそれに関連する機器の操作が行われる。ここで、ユーザ3の動作とは、具体的にはテレビジョン受像機1に表示されるメニュー画面から所望のボタンを選択する身体(手、足、顔など)の動きのことである。本実施形態では、後述するように最も実用的である手の動きで操作する手法を採用している。またテレビジョン受像機1の周囲が暗いときは、自発光機能を具備した遠隔操作用機器(手元制御機器)を用いることにより、手の動作と同様の効果を得るようにしてもよい。   In the operation method of the present embodiment, the television receiver 1 is provided with the video camera 2, the user 3 is photographed by the video camera 2, the operation of the user 3 is recognized from the image of the video camera 2, and the recognition is performed. The television receiver 1 and related devices are operated in accordance with the performed operation. Here, the operation of the user 3 is specifically a movement of the body (hand, foot, face, etc.) for selecting a desired button from the menu screen displayed on the television receiver 1. In the present embodiment, as will be described later, the most practical method of operating with hand movement is adopted. Further, when the periphery of the television receiver 1 is dark, the same effect as that of the hand movement may be obtained by using a remote operation device (hand control device) having a self-luminous function.

図2及び図3は、テレビジョン受像機1の画面構成を示す説明図である。同図に示すように、本実施形態に係る画面は、通常の映像信号S2上に、第1の混合画像M1oを混合して生成した第2の混合画像M2oを表示したものである。第1の混合画像M1oは、ユーザーインターフェースである操作用画像Gsに、ビデオカメラ2で撮影した操作者画像S1を混合して形成される。ここで、通常の映像信号S2は、例えば地上波放送や衛星放送、外部入力端子から入力されたビデオデッキやDVDプレイヤー等からの映像信号であり、操作者画像は、ビデオカメラ2で撮影されたユーザ3及びその背後にある風景である。   2 and 3 are explanatory diagrams showing screen configurations of the television receiver 1. As shown in the figure, the screen according to the present embodiment displays the second mixed image M2o generated by mixing the first mixed image M1o on the normal video signal S2. The first mixed image M1o is formed by mixing the operator image S1 captured by the video camera 2 with the operation image Gs which is a user interface. Here, the normal video signal S2 is a video signal from, for example, a terrestrial broadcast or a satellite broadcast, a video deck or a DVD player input from an external input terminal, and an operator image was taken by the video camera 2. It is the user 3 and the scenery behind it.

操作用画像Gsは、テレビのチャンネルやページ遷移、メディア(放送方式)の切り替えを操作するための操作ボタン40,41が配列されている。この画面内において、操作者は、認識対象物Objである手を、操作ボタン40,41中の任意の操作ボタン(任意の放送局など)上にかざし、所定の動作(例えば、指を折り曲げたり、手を開いたり閉じたり等のサイン)をすることによって、所望する操作ボタンに対する操作を行うことができる。   In the operation image Gs, operation buttons 40 and 41 for operating a television channel, page transition, and media (broadcast system) switching are arranged. In this screen, the operator holds the hand that is the recognition object Obj over an arbitrary operation button (an arbitrary broadcast station or the like) in the operation buttons 40 and 41 and performs a predetermined operation (for example, bending a finger). The user can perform an operation on a desired operation button by signing the hand to open or close.

(制御装置の構成)
図4は、テレビジョン受像機1の制御装置の構成を示すブロック図であり、テレビジョン受像機1は、ビデオカメラ2、基準同期発生器11、タイミングパルス発生器12、鏡像変換器13、スケーラ14、グラフィックス生成器15、第1の混合器16、検出部17、制御情報判断器(CPU)18、画素数変換器19、第2の混合器20、及び表示装置21を備えている。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
(Configuration of control device)
FIG. 4 is a block diagram showing the configuration of the control device of the television receiver 1. The television receiver 1 includes a video camera 2, a reference synchronization generator 11, a timing pulse generator 12, a mirror image converter 13, and a scaler. 14, a graphics generator 15, a first mixer 16, a detection unit 17, a control information determination device (CPU) 18, a pixel number converter 19, a second mixer 20, and a display device 21. The “module” used in the description refers to a functional unit that is configured by hardware such as an apparatus or a device, software having the function, or a combination thereof, and achieves a predetermined operation. .

基準同期発生器11は、入力される同期信号に基づいて、テレビジョン受像機1の基準になる水平周期パルスと垂直周期パルスを発生するモジュールである。ここで、同期信号は画素数変換器19に入力される映像信号の水平及び垂直同期信号である。テレビジョン放送受信時や外部の機器から映像信号が入力されている場合は、基準同期発生器11はその入力信号の同期信号に同期するパルスを生成する。タイミングパルス発生器12は、各モジュールで必要とする水平方向と垂直方向の任意の位相と幅を有するパルスを生成する。   The reference synchronization generator 11 is a module that generates a horizontal period pulse and a vertical period pulse that serve as a reference for the television receiver 1 based on an input synchronization signal. Here, the synchronization signal is a horizontal and vertical synchronization signal of the video signal input to the pixel number converter 19. When receiving a television broadcast or when a video signal is input from an external device, the reference synchronization generator 11 generates a pulse synchronized with the synchronization signal of the input signal. The timing pulse generator 12 generates a pulse having an arbitrary phase and width in the horizontal and vertical directions required by each module.

ビデオカメラ2は、図1に示すようにテレビジョン受像機1の前面に位置してユーザ3、またはテレビジョン受像機1の前の映像を撮影する装置であり、例えばCCDカメラなどを採用することができる。ビデオカメラ2の出力信号は、輝度(Y)信号、及び色差(R−Y、B−Y)信号であり、基準同期発生器11から出力される水平周期パルス及び垂直周期パルスに同期している。   As shown in FIG. 1, the video camera 2 is a device that is located in front of the television receiver 1 and shoots an image in front of the user 3 or the television receiver 1, and employs a CCD camera, for example. Can do. The output signal of the video camera 2 is a luminance (Y) signal and a color difference (R−Y, B−Y) signal, and is synchronized with the horizontal period pulse and the vertical period pulse output from the reference synchronization generator 11. .

鏡像変換器13及びスケーラ14は、ビデオカメラによって撮影した画像信号を鏡像変換するとともに、後述する認識対象物情報に応じて、表示装置の画面上に表示された操作者の拡大、縮小又は位置の調整を行う鏡像画像調整部を構成するモジュールである。   The mirror image converter 13 and the scaler 14 perform mirror image conversion on the image signal captured by the video camera, and enlarge, reduce, or position of the operator displayed on the screen of the display device according to recognition object information described later. It is a module which comprises the mirror image adjustment part which performs adjustment.

鏡像変換器13は、ビデオカメラ2で撮影したユーザ3の画像(被写体像)を表示装置21上に鏡と同じように左右を反転して表示するためのモジュールである。従って、文字を表示する場合は鏡と同じように左右が反転することになる。本実施形態では、メモリを活用して水平方向の画像を反転させる方法により鏡像変換が行われる。表示装置21として陰極線管(CRT(CathodeRayTube))を用いる場合には、水平偏向を逆に操作することで同様の効果が得られる。その場合には、グラフィックスやその他混合する側の画像をあらかじめ水平方向に左右逆転させておく必要がある。   The mirror image converter 13 is a module for displaying the image of the user 3 (subject image) captured by the video camera 2 on the display device 21 with the left and right reversed like a mirror. Therefore, when displaying characters, the left and right are reversed like a mirror. In this embodiment, mirror image conversion is performed by a method of inverting a horizontal image using a memory. When a cathode ray tube (CRT (Cathode Ray Tube)) is used as the display device 21, the same effect can be obtained by operating the horizontal deflection in reverse. In that case, it is necessary to reverse the graphics and other images to be mixed in advance in the horizontal direction.

スケーラ14は、例えばデジタル処理等により、図8及び図9に示すように、ビデオカメラ2により撮影した被写体像の大きさを拡大又は縮小したり、表示位置を調整する画像調整器で、制御情報判断器18の制御で拡大率と縮小率を2次元で調整するモジュールである。また、このスケーラ14は、拡大縮小を行わずに、水平と垂直の位相調整を行うこともできる。   The scaler 14 is an image adjuster that enlarges or reduces the size of a subject image photographed by the video camera 2 and adjusts the display position, as shown in FIGS. This is a module that adjusts the enlargement ratio and reduction ratio in two dimensions under the control of the determiner 18. The scaler 14 can also perform horizontal and vertical phase adjustments without performing enlargement / reduction.

なお、本実施形態では、図4に示すようにスケーラ14は鏡像変換器13の後段に設け、鏡像変換器13により鏡像変換された画像を調整するが、ビデオカメラ2と鏡像変換器13の間にスケーラ14を設け、ビデオカメラ2より出力された画像を調整させてもよい。   In this embodiment, as shown in FIG. 4, the scaler 14 is provided at the subsequent stage of the mirror image converter 13 and adjusts the image converted by the mirror image converter 13, but between the video camera 2 and the mirror image converter 13. The scaler 14 may be provided to adjust the image output from the video camera 2.

グラフィックス生成器15は、制御情報判断器18から供給されるメニュー画面(操作用画像)を生成するための認識対象物情報に基づいてメニュー画面を生成する操作用画像生成部であり、メモリ上の信号がR(赤)信号、G(緑)信号、B(青)信号の原色信号で展開されていても、後段で映像信号と合成または混合される出力信号は、輝度(Y)信号と色差(R−Y、B−Y)信号とする。また生成されるグラフィックスのプレーン数は限定するものではないが、本実施形態では1プレーンでよい。   The graphics generator 15 is an operation image generation unit that generates a menu screen based on recognition object information for generating a menu screen (operation image) supplied from the control information determination unit 18. Output signal that is combined with or mixed with the video signal in the subsequent stage is the luminance (Y) signal, even if the signal is developed as the primary color signal of the R (red) signal, G (green) signal, and B (blue) signal. The color difference (R−Y, B−Y) signal is assumed. Further, the number of generated graphics planes is not limited, but one plane may be used in the present embodiment.

なお、メニュー画面を構成するグラフィックスの画素数(解像度)は、本実施形態では表示装置21の画素数(解像度)に一致させるようにしている。一致していない場合は、グラフィックス生成器15内またはグラフィックス生成器15の後段に画素数変換器を設けて、互いの画素数を一致させればよい。   In this embodiment, the number of pixels (resolution) of graphics constituting the menu screen is made to match the number of pixels (resolution) of the display device 21. If they do not match, a pixel number converter may be provided in the graphics generator 15 or at the subsequent stage of the graphics generator 15 so that the numbers of pixels match each other.

また、本実施形態に係るグラフィックス生成器15は、操作用画像制御部15aを備えており、この操作用画像制御部15aは、前記認識対象物情報に応じて、操作用画像の操作ボタンの表示位置又は範囲を調整するモジュールである。この操作ボタンの表示切り替えとしては、図2や図9(a)に示すように、認識対象物情報に含まれる認識対象物の属性が操作者の手であり、且つ、手の個数が一つである場合には、画面上に表示された片手の周囲に操作ボタンを集合させて配置させ、図9(b)に示すように、手の個数が2個以上である場合には、画面上に表示された両手のそれぞれの周囲に、前記操作用画像を分散させて配置する。また、認識対象物情報に含まれる認識対象物の属性が操作者の顔である場合に、図9(c)や(d)に示すように、画面上に表示された1つ又は複数の顔の周囲(両側や円状)に操作ボタンを配置してもよい。さらには、前記グラフィックス生成器15は、認識対象物の属性及び個数を判断し、より確実に認識が可能な対象物を優先させて認識したり、ユーザー操作で任意の認識対象物を選択したりするなど、適宜認識対象物を切り替える動作を行い、その切り替えられた認識対象物の種別や位置に応じて操作ボタンの配置形態を適宜切り替えるようにしてもよい。   In addition, the graphics generator 15 according to the present embodiment includes an operation image control unit 15a, and the operation image control unit 15a includes an operation button for an operation image according to the recognition target object information. This module adjusts the display position or range. As the display switching of the operation buttons, as shown in FIG. 2 and FIG. 9A, the attribute of the recognition object included in the recognition object information is the operator's hand and the number of hands is one. When the number of hands is two or more as shown in FIG. 9B, the operation buttons are gathered and arranged around one hand displayed on the screen. The operation images are distributed and arranged around each of the hands displayed on the screen. In addition, when the attribute of the recognition object included in the recognition object information is the face of the operator, as shown in FIGS. 9C and 9D, one or more faces displayed on the screen Operation buttons may be arranged around the side (both sides and circles). Further, the graphics generator 15 determines the attributes and the number of objects to be recognized, prioritizes objects that can be recognized more reliably, or selects an arbitrary object to be recognized by a user operation. For example, the operation button may be appropriately switched, and the operation button layout may be appropriately switched according to the type and position of the switched recognition object.

さらに、グラフィックス生成器15で生成される操作用画像において、前記操作ボタンは、その属性(地上波放送や衛星放送(BSやCS等)、入力端子などの放送方式や入力種別)に従ってグループ分けされ、グループ単位で表示されるとともに、操作者の選択操作に応じて、グループ単位で活性化(アクティブ化)又は非活性化(非アクティブ化)が切り替えられるようになっている。具体的には、図10に示すように、操作用画像において、グループ毎に、操作ボタンが各操作用ウィンドウにまとめられ、その操作用ウィンドウはページのように捲れるイメージで表現されており、最前面にあるページ(操作用ウィンドウ)W1がアクティブ化され、操作者画像が混合されるとともに、操作ボタンが操作可能となる。一方、最前面の背後にある他のページW2〜W5は、ページの枠組とそのグループの属性に関する情報を表示するタグのみとしてもよい。   Further, in the operation image generated by the graphics generator 15, the operation buttons are grouped according to their attributes (terrestrial broadcasting, satellite broadcasting (BS, CS, etc.), broadcasting method and input type such as input terminal). It is displayed in units of groups, and activation (activation) or deactivation (deactivation) is switched in units of groups in accordance with an operator's selection operation. Specifically, as shown in FIG. 10, in the operation image, the operation buttons are grouped into each operation window for each group, and the operation window is expressed as an image that looks like a page, The foremost page (operation window) W1 is activated, the operator images are mixed, and the operation buttons can be operated. On the other hand, the other pages W2 to W5 behind the foreground may be only tags that display information about the frame of the page and the attributes of the group.

また、グラフィックス生成器15は、検出部17による選択動作の検出に基づいて、図11及び12(a)及び(b)に示すような、操作に関する情報を図形又は文字により表示するガイダンスアイコンを生成する機能を有する。   Further, the graphics generator 15 displays a guidance icon for displaying information related to the operation as a graphic or a character as shown in FIGS. 11 and 12 (a) and (b) based on the detection of the selection operation by the detection unit 17. It has a function to generate.

第1の混合器16は、スケーラ14の出力信号(操作者画像S1)とグラフィックス生成器15の出力信号(操作用画像Gs)とを、制御値α1により混合割合を制御して混合する画像信号混合部である。具体的には、下記(1)式で出力信号(第1の混合画像M1o)が表される。
M1o=α1×S1+(1−α1)×Gs…(1)
制御値α1は、「0」から「1」の間の値に設定され、制御値α1を大きくするとスケーラ14の出力信号(操作者画像S1)の割合が大きくなり、グラフィックス生成器15の出力信号(操作用画像Gs)の割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。なお、既述したようにビデオカメラ2と鏡像変換器13の間にスケーラ14を設けた場合には、鏡像変換器13から出力される信号を出力信号(操作者画像S1)とすればよい。
The first mixer 16 is an image that mixes the output signal of the scaler 14 (operator image S1) and the output signal of the graphics generator 15 (operation image Gs) by controlling the mixing ratio by the control value α1. This is a signal mixing unit. Specifically, the output signal (first mixed image M1o) is expressed by the following equation (1).
M1o = α1 × S1 + (1−α1) × Gs (1)
The control value α1 is set to a value between “0” and “1”. When the control value α1 is increased, the ratio of the output signal (operator image S1) of the scaler 14 is increased, and the output of the graphics generator 15 is increased. The ratio of the signal (operation image Gs) is reduced. The example of the mixer is not limited to this, but in the present embodiment, the same effect can be obtained as long as two types of input signal information are included. As described above, when the scaler 14 is provided between the video camera 2 and the mirror image converter 13, a signal output from the mirror image converter 13 may be used as an output signal (operator image S1).

また、本実施形態に係る第1の混合器16は、図3にも示したように、鏡像変換器13及びスケーラ14を経た操作者画像S1の面積及び形状と、操作用画像Gsのうちの最前面にありアクティブ化されているページW1の面積及び形状とをほぼ等しくし、さらにその座標位置をほぼ一致させた状態で混合する。そして、これにより生成された混合画像は、第2の混合器20において、通常の映像信号とさらに混合され、表示装置21の画面上に表示される。   Further, as shown in FIG. 3, the first mixer 16 according to the present embodiment includes the area and shape of the operator image S1 that has passed through the mirror image converter 13 and the scaler 14, and the operation image Gs. The area and the shape of the page W1 which is the foremost and activated are made substantially equal, and further mixed in a state where the coordinate positions thereof are almost matched. Then, the mixed image generated thereby is further mixed with a normal video signal in the second mixer 20 and displayed on the screen of the display device 21.

検出部17は、第1の混合器16,第2の混合器20により混合された画像を表示装置21の画面上に表示させた状態において、画面に表示された操作者が操作ボタンを選択する所定の選択動作を検出する動作検出部であり、第1の検出器171、第2の検出器172、…第nの検出器17nを備える。これらの検出部17に含まれる検出器は数を特定するものではなく、グラフィックス生成器15で生成されるメニュー画面と連携した制御内容を表す後述する操作ボタンの数に対応して変動する。なお、操作ボタンとはパソコンにおいてマウスでクリック操作する操作ボタンに該当するものである。   In the state where the image mixed by the first mixer 16 and the second mixer 20 is displayed on the screen of the display device 21, the detection unit 17 selects an operation button by the operator displayed on the screen. This is an operation detection unit that detects a predetermined selection operation, and includes a first detector 171, a second detector 172, ... an nth detector 17n. The number of detectors included in these detectors 17 does not specify the number, but varies in accordance with the number of operation buttons (to be described later) representing the control content linked to the menu screen generated by the graphics generator 15. The operation button corresponds to an operation button clicked with a mouse on a personal computer.

制御情報判断器18は、検出部17から出力されるデータ(検出信号)の解析を行い、各種制御信号を出力する。制御情報判断器18は、入力されるデータに基づいて操作された操作ボタンに対応する制御信号を生成し、自機各部及び外部の電子機器の制御動作を行う。制御情報判断器18はソフトウェアで各種の処理を行うモジュールである。本実施形態では、ハードウェア(各機能ブロック)による処理と、ソフトウェア(制御情報判断器18のCPU)による処理とが混在するモジュールとして取り扱われ、特にここで示す区分けに限定するものではなく、ハードウェアとソフトウェアとをどのように用いてもよい。   The control information determination unit 18 analyzes the data (detection signal) output from the detection unit 17 and outputs various control signals. The control information determination unit 18 generates a control signal corresponding to the operation button operated based on the input data, and performs a control operation of each part of the own device and an external electronic device. The control information determination unit 18 is a module that performs various processes using software. In the present embodiment, processing by hardware (each functional block) and processing by software (CPU of the control information determination unit 18) are handled as a mixed module, and the module is not particularly limited to the division shown here. Hardware and software may be used in any way.

特に、本実施形態において制御情報判断器18は、前記ビデオカメラによって撮影された対象物を認識し、認識された対象物の属性、個数、画面内における位置、又は画面内に占める面積の割合のうちの少なくとも一つを含む認識対象物情報を生成する認識情報生成部23を備えている。   In particular, in this embodiment, the control information determination unit 18 recognizes an object photographed by the video camera, and recognizes the attribute, the number of recognized objects, the position in the screen, or the ratio of the area occupied in the screen. A recognition information generation unit 23 that generates recognition target object information including at least one of them is provided.

具体的には、図6に示すように、認識情報生成部23は、例えば手や顔の形状や色などの認識特徴を記憶する認識特徴記憶部231と、画像信号中から前記認識特徴を検出する認識対象検出部232と、検出された認識特徴に基づいて、その属性や位置・サイズ、個数を判別する属性判別部233,位置・サイズ判別部234,個数判別部235とを有している。そして、この認識情報生成部23による対象物の認識は、ビデオカメラによって撮影された映像の中から、認識特徴記憶部231に記憶されている手や顔の形状や色などの特徴に基づいて対象物を抽出し、その属性等のデータは、認識対象物情報としてグラフィックス生成器15及びスケーラ14に送出される。   Specifically, as shown in FIG. 6, the recognition information generation unit 23 detects a recognition feature from a recognition feature storage unit 231 that stores recognition features such as hand and face shapes and colors, and the like from the image signal. A recognition target detection unit 232, and an attribute determination unit 233, a position / size determination unit 234, and a number determination unit 235 that determine the attribute, position / size, and number based on the detected recognition feature. . The recognition information generation unit 23 recognizes the object based on features such as the shape and color of the hand and face stored in the recognition feature storage unit 231 from the video captured by the video camera. An object is extracted, and data such as attributes are sent to the graphics generator 15 and the scaler 14 as recognition object information.

なお、この制御情報判断器18には、マイク等の音声入力デバイスから入力される音声を認識する音声認識部22が接続されており、ビデオカメラ2からの映像による操作と併せて、例えば、命令音声や拍手、その他の音響による操作を取入れることができるようになっている。   The control information determination unit 18 is connected to a voice recognition unit 22 for recognizing voice input from a voice input device such as a microphone. Voice, applause and other acoustic operations can be incorporated.

画素数変換器19は、入力される映像信号の画素数(解像度)と表示装置21の画素数(解像度)を合わせるための画素数変換を行う。入力映像信号は、図示を省略している内蔵のチューナにて受信したテレビジョン信号(データ放送なども含む)による映像信号やビデオデッキからの映像信号などテレビジョン受像機1の外部から入力される映像信号である。ここでは図示を省略するが、入力映像信号から水平及び垂直同期信号を抽出して、基準同期発生器11によって各部を入力映像信号の水平及び垂直同期信号に同期させるようにしている。   The pixel number converter 19 performs pixel number conversion to match the pixel number (resolution) of the input video signal with the pixel number (resolution) of the display device 21. The input video signal is input from the outside of the television receiver 1 such as a video signal by a television signal (including data broadcasting) received by a built-in tuner (not shown) or a video signal from a video deck. It is a video signal. Although not shown here, the horizontal and vertical synchronization signals are extracted from the input video signal, and each unit is synchronized with the horizontal and vertical synchronization signals of the input video signal by the reference synchronization generator 11.

第2の混合器20は、第1の混合器16と同様の機能を有する。すなわち、第1の混合器16の出力信号(第1の混合画像M1o)と、画素数変換器19の映像信号S2とを制御値α2で混合割合を制御して混合する。具体的には、下記(2)式で出力信号M2oが表される。
M2o=α2×M1o+(1−α2)×S2…(2)
制御値α2は、「0」から「1」の間の値に設定され、制御値α2を大きくすると第1の混合器16の出力信号M1oの割合が大きくなり、画素数変換器19の出力信号S2の割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。
The second mixer 20 has the same function as the first mixer 16. That is, the output signal (first mixed image M1o) of the first mixer 16 and the video signal S2 of the pixel number converter 19 are mixed by controlling the mixing ratio with the control value α2. Specifically, the output signal M2o is expressed by the following equation (2).
M2o = α2 × M1o + (1−α2) × S2 (2)
The control value α2 is set to a value between “0” and “1”. When the control value α2 is increased, the ratio of the output signal M1o of the first mixer 16 is increased, and the output signal of the pixel number converter 19 is increased. The ratio of S2 becomes small. The example of the mixer is not limited to this, but in the present embodiment, the same effect can be obtained as long as two types of input signal information are included.

表示装置21は、CRT、液晶ディスプレイ(LCD)、プラズマディスプレイ(PDP)あるいはプロジェクションディスプレイなどを想定しているが、ディスプレイの表示方式を限定するものではない。表示装置21の入力信号は、輝度信号Yと、色差信号R−Y及びB−Yであり、表示装置21の内部にてRGB原色信号にマトリクス変換されて表示される。   The display device 21 is assumed to be a CRT, a liquid crystal display (LCD), a plasma display (PDP), or a projection display, but the display method of the display is not limited. The input signals of the display device 21 are a luminance signal Y and color difference signals RY and BY, and are converted into RGB primary color signals and displayed inside the display device 21.

各検出器171〜17nは、図5(a)に示すように、オブジェクト抽出器30と、タイミングゲート器31と、オブジェクト特徴データ検出部32とを備えている。オブジェクト抽出器30は、画像の特徴に添ったフィルタを備えており、フィルタ処理をした画像信号をタイミングゲート器31に出力する。   Each of the detectors 171 to 17n includes an object extractor 30, a timing gate unit 31, and an object feature data detector 32 as shown in FIG. The object extractor 30 includes a filter according to the feature of the image, and outputs the filtered image signal to the timing gate unit 31.

タイミングゲート器31は、タイミングパルスに基づいてビデオカメラ2からの画像信号の通過を制御する。通過する領域は後述する検出エリア内である。この検出エリア内に限定した信号に対して、オブジェクト特徴データ検出部32は種々のフィルタ処理を施してビデオカメラ2で撮影したユーザ3の手の画像を抽出する。   The timing gate unit 31 controls the passage of the image signal from the video camera 2 based on the timing pulse. The passing area is in a detection area described later. The object feature data detection unit 32 performs various filter processes on the signal limited to the detection area and extracts an image of the hand of the user 3 captured by the video camera 2.

オブジェクト特徴データ検出部32は、抽出されたユーザ3の手(対象物)の画像信号から、様々な特徴を検出し検出信号を発生するための機能ブロックを備える。本実施形態では、ヒストグラム検出器33、平均輝度(APL)検出器34、高域発生量検出器35、最小値検出器36、最大値検出器37を備える。この他にも画像を特徴づける要件はあるが、本実施形態ではこれらの検出器より発生される検出信号を用い、制御情報判断器18によって手であることを判別すると共にその動作を認識する。   The object feature data detection unit 32 includes functional blocks for detecting various features from the extracted image signal of the hand (object) of the user 3 and generating detection signals. In the present embodiment, a histogram detector 33, an average luminance (APL) detector 34, a high frequency generation amount detector 35, a minimum value detector 36, and a maximum value detector 37 are provided. Although there are other requirements for characterizing the image, in this embodiment, detection signals generated from these detectors are used to determine that the hand is a hand by the control information determination unit 18 and to recognize its operation.

図5(b)に、オブジェクト抽出器30の詳細ブロック図を示す。本実施形態ではユーザ3の手を検出するために、特に肌色に着目したフィルタ処理を行う。すなわち、本実施形態のオブジェクト抽出器30は、特定色フィルタ71と、階調限定器72と、時間差分フィルタ75と、合成器73と、オブジェクトゲート器74とを備えている。   FIG. 5B shows a detailed block diagram of the object extractor 30. In the present embodiment, in order to detect the hand of the user 3, a filter process that focuses on the skin color is performed. That is, the object extractor 30 of this embodiment includes a specific color filter 71, a gradation limiter 72, a time difference filter 75, a combiner 73, and an object gate unit 74.

特定色フィルタ71、階調限定器72及び時間差分フィルタ75は、それぞれオブジェクトを特定するフィルタである。特定色フィルタ71は、色差信号で入力される色信号の色相と色の濃さ(飽和度)を限定し、階調限定器72は、輝度信号の特定の階調の範囲を限定する。時間差分フィルタ75は、人の手の背景が肌色であっても、わずかな輝度の差などを基に手の領域を抽出し、人の手を識別する。本実施形態では人の手を、後述する操作ボタンを操作する対象物としているが、パラメータである色相や階調を調整し最適化することにより、オブジェクト抽出器30は手以外の対象物も検出することができる。   The specific color filter 71, the gradation limiter 72, and the time difference filter 75 are filters that specify objects. The specific color filter 71 limits the hue and color density (saturation) of the color signal input as the color difference signal, and the gradation limiter 72 limits the specific gradation range of the luminance signal. The time difference filter 75 extracts a hand region based on a slight difference in luminance and the like to identify a human hand even if the background of the human hand is a skin color. In this embodiment, a human hand is an object for operating an operation button described later. However, by adjusting and optimizing the hue and gradation as parameters, the object extractor 30 also detects an object other than the hand. can do.

合成器73は、特定色フィルタ71と階調限定器72と時間差分フィルタ75から入力される信号を合成し、領域パルスに変換する。本実施形態では、特定色フィルタ71を通過した信号と階調限定器72を通過した信号と時間差分フィルタ75を通過した信号とが全て存在(AND)する場合に、ハイレベルとなる領域パルスを出力する。なお、特定色フィルタ71と階調限定器72と時間差分フィルタ75のうち1つまたは2つを通過した信号が存在すれば、ハイレベルとなる領域パルスを出力するようにしてもよい。   The synthesizer 73 synthesizes the signals input from the specific color filter 71, the gradation limiter 72, and the time difference filter 75 and converts them into region pulses. In the present embodiment, when all of the signal that has passed through the specific color filter 71, the signal that has passed through the gradation limiter 72, and the signal that has passed through the time difference filter 75 are present (AND), the region pulse that becomes high level is detected. Output. If there is a signal that has passed one or two of the specific color filter 71, the gradation limiter 72, and the time difference filter 75, a high-level region pulse may be output.

特定色フィルタ71と階調限定器72と時間差分フィルタ75のうちの、2つを通過した信号が存在すればハイレベルとなるようにすれば誤検出しにくく、3つを通過した信号が存在すればハイレベルとなるようにすれば更に誤検出しにくくなる。   If there is a signal that has passed through two of the specific color filter 71, the gradation limiter 72, and the time difference filter 75, a signal that has passed through three is less likely to be erroneously detected if it is set to a high level. If it is made high level, it will become more difficult to detect falsely.

合成器73で生成された領域パルスは、オブジェクトゲート器74に供給される。オブジェクトゲート器74は、領域パルスがハイレベルであるとき、輝度信号と色差信号を通過させる。領域パルスがローレベル(領域パルス外の範囲)であるときは、輝度信号も色差信号も通過させず、規定した値の信号を出力する。本実施形態では、黒レベルの輝度信号及び飽和度0の色差信号を出力する。   The region pulse generated by the synthesizer 73 is supplied to the object gate unit 74. The object gate 74 passes the luminance signal and the color difference signal when the region pulse is at the high level. When the area pulse is at a low level (a range outside the area pulse), neither a luminance signal nor a color difference signal is passed, and a signal having a specified value is output. In this embodiment, a black level luminance signal and a saturation zero color difference signal are output.

(電子機器の制御方法)
以上の構成を有する制御装置を動作させることによって、本発明の制御方法を実施することができる。図7は、本実施形態に係る制御装置の動作を示すフローチャート図である。
(Electronic device control method)
The control method of the present invention can be implemented by operating the control device having the above configuration. FIG. 7 is a flowchart showing the operation of the control device according to the present embodiment.

先ず、ビデオカメラ2による操作者画像S1を、鏡像変換器13で鏡像変換し、スケーラ14により拡大・縮小及び位置調整を行う(S101〜S103)。これと並行して通常の映像信号の受信若しくは入力を行う(S112)。   First, the operator image S1 obtained by the video camera 2 is mirror-image converted by the mirror image converter 13, and the scaler 14 performs enlargement / reduction and position adjustment (S101 to S103). In parallel with this, a normal video signal is received or input (S112).

そして、この操作者画像S1について、認識情報生成部23により、認識対象物Objを認識し、認識された対象物Objの属性、個数、前記表示装置の画面内における位置、又は該画面内に占める面積の割合のうちの少なくとも一つを含む認識対象物情報を生成する(S104)。この認証対象物情報により、操作者が画像中において小さすぎたり、大きすぎたり、又は偏った位置にいるようなときには、操作者画像の調整要と判断し、拡大・縮小、位置調整をやり直す(S105における”Y”)。例えば、ビデオカメラの撮影の画角に対して、人の位置によっては手の大きさが小さかったり、プッシュボタンの位置まで届かなかったりすることが考えられる。この場合は、スケーラ14で画像を「拡大」「縮小」「位相(位置)」を調整して人を画面上に適切な大きさにする。すなわち、図8(a)や(b)に示すように、操作者が遠方(或いは近距離)にいたり、画面の端にいる場合、スケーラ14を制御して「拡大」(或いは「縮小」)し、画面の中心に人が位置するように「位相」を調整することにより、図8(b)の(E)のように適切な大きさで適切な位置にユーザを表示させる。   And about this operator image S1, the recognition information generation part 23 recognizes the recognition target object Obj, the attribute of the recognized target object Obj, the number, the position in the screen of the said display apparatus, or it occupies in this screen Recognition object information including at least one of the area ratios is generated (S104). When the operator is too small, too large, or in a biased position in the image by this authentication object information, it is determined that the operator image needs to be adjusted, and enlargement / reduction and position adjustment are performed again ( “Y” in S105). For example, it is conceivable that the size of the hand is small depending on the position of the person or the position of the push button does not reach the angle of view of the video camera. In this case, the scaler 14 adjusts “enlargement”, “reduction”, and “phase (position)” of the image so that the person is appropriately sized on the screen. That is, as shown in FIGS. 8A and 8B, when the operator is far away (or close) or at the edge of the screen, the scaler 14 is controlled to “enlarge” (or “reduce”). Then, by adjusting the “phase” so that the person is positioned at the center of the screen, the user is displayed at an appropriate position in an appropriate size as shown in FIG.

また、認証対象物情報に基づいて、操作用画像の操作ボタンの配置位置などの調整が必要か否か判断し(S106)、調整要と判断した場合は(S106における”Y”)、対象物の位置や属性に応じて、操作ボタンの表示形態を決定し(S107)、この決定に基づいて操作用画像Gsを生成(変更)する(S108)。なお、本実施形態における装置のデフォルト設定では、図2に示すように、ユーザーの手を認識対象とし、認識された手が画面中央に位置するように、操作者画像が調整され、その中央に表示された手に整合させるように、操作ボタンが画面中央に配置されるように、操作用画像が生成・変更されるようになっている。   Further, based on the authentication object information, it is determined whether or not the position of the operation button of the operation image needs to be adjusted (S106). If it is determined that the adjustment is necessary ("Y" in S106), the object is determined. The display form of the operation button is determined according to the position and attribute (S107), and the operation image Gs is generated (changed) based on this determination (S108). In the default setting of the apparatus according to the present embodiment, as shown in FIG. 2, the operator image is adjusted so that the user's hand is a recognition target and the recognized hand is positioned at the center of the screen. The operation image is generated / changed so that the operation button is arranged at the center of the screen so as to be aligned with the displayed hand.

次いで、このようにして生成された操作用画像Gsが、操作者画像S1と、第1の混合器16で混合され、第2の混合器20で、映像信号S2と混合される。かかる第1の混合器16における混合処理は、操作用画像Gsと、操作者画像S1との混合画像であるM1oを制御値α1に対応する混合割合で混合して生成し、また、第2の混合器20における混合処理は、混合画像M1oと、映像信号S2とを制御値α2に対応する混合割合で混合して生成する(S109)。   Next, the operation image Gs generated in this way is mixed with the operator image S1 by the first mixer 16, and is mixed with the video signal S2 by the second mixer 20. The mixing process in the first mixer 16 is generated by mixing M1o, which is a mixed image of the operation image Gs and the operator image S1, at a mixing ratio corresponding to the control value α1, The mixing process in the mixer 20 is generated by mixing the mixed image M1o and the video signal S2 at a mixing ratio corresponding to the control value α2 (S109).

操作用画像Gsは、制御を行うためのメニュー画面を形成しており、四角形のプッシュボタン式に操作される操作ボタンが配列されている。一方の操作者画像S1は、ユーザが撮影され鏡像変換され、鏡と同じように表示される。   The operation image Gs forms a menu screen for performing control, and operation buttons operated in a square push button type are arranged. One operator image S1 is photographed and mirror-image converted by the user and displayed in the same manner as a mirror.

操作者画像S1の中の操作ボタンには、複数の検出器171〜17n等からなる検出部17の検出エリアが対応づけられており、各検出エリア上で動作を行うことによって、検出器171〜17nがその動作を検出し、対応した操作ボタンに対する操作であることを判別する。   The operation buttons in the operator image S1 are associated with detection areas of the detection unit 17 including a plurality of detectors 171 to 17n, and the detectors 171 to 171 are operated by performing operations on the detection areas. 17n detects the operation and determines that the operation is for the corresponding operation button.

このようにして表示装置21には、ユーザの画像が鏡と同様に映ると共に、制御のメニュー画面も重畳されて表示される。これによりユーザ本人は、自分の動きと制御メニューの位置を認識することができる。制御は、ユーザが画面を見て、画面上の操作ボタンに触れるように手(身体)を動かすことにより行う。言い換えれば手を操作ボタン上に位置するように画面を見てユーザが動作することにより、制御を行うことができる。   In this way, the user's image is displayed on the display device 21 in the same manner as a mirror, and the control menu screen is also displayed superimposed. Thereby, the user himself / herself can recognize his / her movement and the position of the control menu. The control is performed by moving the hand (body) so that the user looks at the screen and touches the operation button on the screen. In other words, control can be performed by the user operating while looking at the screen so that the hand is positioned on the operation button.

具体的には、各検出器171〜17nは、ビデオカメラ2からの画像信号の通過を制御し、通過する領域は、各操作ボタンに対応した検出エリア内である。この検出エリア内に限定した信号を、さらに様々なフィルタ処理してビデオカメラ2で捉えたユーザの手を抽出し、その動作を検出する(S110)。   Specifically, each of the detectors 171 to 17n controls the passage of the image signal from the video camera 2, and the passing area is in a detection area corresponding to each operation button. The signal limited to the detection area is further filtered to extract the user's hand captured by the video camera 2, and the operation is detected (S110).

オブジェクト抽出器30は、画像の特徴に添ったフィルタを備えており、本実施形態ではユーザの手を検出するために、特に肌色に着目したフィルタ処理を行う。また、このオブジェクト抽出器30では、特定色フィルタ71で色信号の色相(角度)と飽和度を限定したものをさらに輝度信号レベルで限定する。特定色フィルタ71で色相と飽和度を限定することで人の肌色に絞ることができ、日焼け具合や人種によって異なる人の肌の色相、飽和度、輝度信号の階調限定の範囲で調整し、ユーザーの手を検出する。本実施形態では人(ユーザー)の手を対象にしているが、その他の色相と階調を適切に調整すれば、本実施形態におけるパラメータの変更の範疇で同様にして他のものと区別することができる。   The object extractor 30 includes a filter according to the characteristics of the image. In the present embodiment, in order to detect the user's hand, the object extractor 30 performs a filter process that pays particular attention to the skin color. The object extractor 30 further limits the hue (angle) and saturation of the color signal with the specific color filter 71 by the luminance signal level. By limiting the hue and saturation with the specific color filter 71, it can be narrowed down to the human skin color, and it can be adjusted within the limits of human skin hue, saturation, and luminance signal gradations that vary depending on sunburn and race. Detect user's hand. In this embodiment, it is intended for human (user) hands. However, if other hues and gradations are appropriately adjusted, they can be distinguished from others in the same manner in the parameter change category in this embodiment. Can do.

そして、手を触れた(該当する)操作ボタンに対応する検出エリア内の手の動作を検出し、該当する操作ボタンが押されたことを認識する(S110における”Y”)。本実施形態では、かざした手の指を折り曲げる動作を2度繰り返すことで操作ボタンが押されたことを認識するようにしている。   Then, the movement of the hand in the detection area corresponding to the operation button touched (corresponding) is detected, and it is recognized that the corresponding operation button is pressed (“Y” in S110). In the present embodiment, the operation of bending the finger of the hand held up is repeated twice to recognize that the operation button has been pressed.

なお、この操作ボタンに手を触れた段階で、本実施形態では、触れられたボタンの色を変えるなどして強調表示するとともに、図11及び図12に示したガイダンスアイコンを表示させ、ユーザーに対して次の動作(操作)を誘導する。例えば、図12(a)に示した例では、ユーザーの手が操作ボタンに触れたときに、吹出しが表示され、手の形をしたガイダンスアイコンが、指を折り曲げる動作をするようにしている。また、図12(b)に示すように、吹出しではなく、ユーザーの手が触れてアクティブとなった操作ボタン上に直接、ガイダンスアイコンを表示させてもよい。   In this embodiment, when the user touches the operation button, the user highlights the touched button by changing the color of the touched button, and displays the guidance icons shown in FIGS. On the other hand, the next operation (operation) is guided. For example, in the example shown in FIG. 12A, when the user's hand touches the operation button, the balloon is displayed, and the guidance icon in the shape of a hand performs the operation of bending the finger. Also, as shown in FIG. 12B, a guidance icon may be displayed directly on an operation button that is activated by touching the user's hand, instead of blowing.

さらに、このガイダンスアイコン内またはその周辺に、対応する操作ボタンの機能に関わる詳細情報を表示してもよい。詳細情報としては、例えば、番組名や番組内容等の番組情報などが考えられる。   Further, detailed information related to the function of the corresponding operation button may be displayed in or around the guidance icon. As detailed information, for example, program information such as a program name and program contents can be considered.

この動作の認識により、該当操作ボタンの制御内容に相当する制御信号を制御情報判断器(CPU)18から出力し、動作制御を行う(S111)。その際グラフィック状のメニュー画面の操作ボタンは形状及び/または色を変化させて、動作を認識したことを表示上に表す。例えば操作ボタンが押されたように画像を変化させてもよい。   By recognizing this operation, a control signal corresponding to the control content of the corresponding operation button is output from the control information determination unit (CPU) 18 to perform operation control (S111). At this time, the operation buttons on the graphic menu screen change the shape and / or color to indicate that the operation has been recognized on the display. For example, the image may be changed as if the operation button was pressed.

また、ユーザーの操作動作としては、画面に表示したメニュー(操作ボタン群)の表示形態の切り替えも含まれる。例えば、図10に示したような、操作ボタンがグルーピングされて表示され、そのグループ毎にアクティブと非アクティブが切り替えられるようなときには、ページをめくる操作を行うことにより、アクティブになっているページ(操作ボタンのグループ)を順次切り替えていくことができる。   In addition, the user operation includes switching of the display form of a menu (operation button group) displayed on the screen. For example, when the operation buttons are grouped and displayed as shown in FIG. 10 and switching between active and inactive is performed for each group, an active page ( The group of operation buttons) can be switched sequentially.

(電子機器の制御プログラム)
上述した本実施形態係る電子機器の制御装置及び制御方法は、所定の言語で記述されたプログラムをコンピュータ上で実行することにより実現することができる。すなわち、このプログラムを、ユーザー端末やWebサーバ等のコンピュータやICチップにインストールし、CPU上で実行することにより、上述した各機能を有する制御装置を容易に構築することができる。このプログラムは、例えば、通信回線を通じて配布することが可能であり、またスタンドアローンの計算機上で動作するパッケージアプリケーションとして譲渡することができる。
(Control program for electronic devices)
The above-described control apparatus and control method for an electronic apparatus according to the present embodiment can be realized by executing a program described in a predetermined language on a computer. That is, by installing this program on a computer such as a user terminal or a Web server or an IC chip and executing the program on the CPU, a control device having the above-described functions can be easily constructed. This program can be distributed through a communication line, for example, and can be transferred as a package application that operates on a stand-alone computer.

そして、このようなプログラムは、汎用コンピュータで読み取り可能な記録媒体に記録することができる。具体的には、フレキシブルディスクやカセットテープ等の磁気記録媒体、若しくはCD−ROMやDVD−ROM等の光ディスクの他、RAMカードなど、種々の記録媒体に記録することができる。   Such a program can be recorded on a recording medium readable by a general-purpose computer. Specifically, it can be recorded on various recording media such as a RAM card in addition to a magnetic recording medium such as a flexible disk or a cassette tape, or an optical disk such as a CD-ROM or DVD-ROM.

そして、このプログラムを記録したコンピュータ読み取り可能な記録媒体によれば、汎用のコンピュータや専用コンピュータを用いて、上述した装置や方法を実施することが可能となるとともに、プログラムの保存、運搬及びインストールを容易に行うことができる。   According to the computer-readable recording medium in which the program is recorded, the above-described apparatus and method can be implemented using a general-purpose computer or a dedicated computer, and the program can be stored, transported, and installed. It can be done easily.

(変更例)
なお、上述した実施形態では、表示装置に映されたグラフィックス上に展開される操作用画像を、それに重ね合わされた自分の鏡像を見ながら操作するものであるが、画像を重ね合わせるので見にくい場合がある。その場合は、検出器の画面上の領域を特定するタイミングパルス(水平垂直)で、第1の混合器16または第2の混合器20の混合割合を制御して見やすいようにする。例えば制御画像である操作ボタンを見やすくするためには第1の混合器16にて、制御値α1の値を小さくするようにタイミングパルスで制御すればよい。このように混合器をきめ細かく制御することによって視聴者と、制御画像(操作ボタン)の関係を分かり易くすることができる。
(Example of change)
In the above-described embodiment, the operation image developed on the graphics displayed on the display device is operated while looking at its own mirror image superimposed on it. There is. In that case, the mixing ratio of the first mixer 16 or the second mixer 20 is controlled with a timing pulse (horizontal and vertical) for specifying an area on the screen of the detector so that it can be easily seen. For example, in order to make the operation buttons that are control images easy to see, the first mixer 16 may control with the timing pulse so as to reduce the value of the control value α1. By finely controlling the mixer as described above, the relationship between the viewer and the control image (operation button) can be easily understood.

また、本実施形態の操作方法は、人の手を使って対称となるグラフィックス上に描かれた操作ボタンを触れるように操作するものであり、その対象となる操作内容は、「電源」「チャンネル」「音量」「入力切替」「上」「下」「左」「右」「決定」など従来のリモコンが備えていたものはすべて置き換えることが可能である。   The operation method of this embodiment is to operate by touching an operation button drawn on symmetrical graphics using a human hand. It is possible to replace all of the conventional remote controls such as “channel”, “volume”, “input switching”, “up”, “down”, “left”, “right”, “decision”.

なお本発明は上述した実施形態に限るものではなく、種々の変形が可能である。例えば、図4に示した第1の混合器16及び第2の混合器20の混合割合を、レベル方向、空間方向、時間方向に効果的に組み合わせるようにしてもよい。これにより、ビデオカメラ2からの画像と生成されるグラフィックスのメニュー画面と、放送番組の映像の多様な組み合わせ方が可能となり、同時に多様な情報のやり取りが出来る。 また本発明の操作対象となる電子機器は、テレビジョン受像機に限るものではなく、パーソナルコンピュータや、テレビジョン受像機とビデオディスク録画装置の組み合わせや、テレビジョン受像機とビデオテープレコーダとの組み合わせなど、表示装置を有するものであればよい。   The present invention is not limited to the embodiment described above, and various modifications can be made. For example, the mixing ratios of the first mixer 16 and the second mixer 20 shown in FIG. 4 may be effectively combined in the level direction, the space direction, and the time direction. As a result, various combinations of images from the video camera 2 and the generated graphics menu screen and broadcast program video are possible, and various information can be exchanged at the same time. The electronic device to be operated according to the present invention is not limited to a television receiver, but a personal computer, a combination of a television receiver and a video disk recorder, or a combination of a television receiver and a video tape recorder. Any device having a display device may be used.

(作用・効果)
以上のような操作方法を用いることにより、リモコンのような制御機器を用いることなく制御対象の制御が可能となる。したがって電池切れや接点不良などのリモコンに関するトラブルが解消される。また複数の機器のリモコンがある場合、被制御機器のリモコンを探さなければならなかったが、本発明の操作方法では、人の身体があればよく、このような問題も解消される。
(Action / Effect)
By using the operation method as described above, it is possible to control a control target without using a control device such as a remote controller. Therefore, troubles related to the remote control such as battery exhaustion and contact failure are eliminated. In addition, when there are a plurality of remote control devices, it has been necessary to search for a remote control device to be controlled. However, in the operation method of the present invention, it is sufficient if there is a human body, and such a problem is solved.

また画面上に制御内容が示されるので、様々な制御機器の取り扱いが可能となる。これはネットワーク化された環境では重要であり、表示装置を有する機器を通じてネットワーク機器を制御する、言い換えれば、ネットワークにつながる機器の制御画面をネットワークを通じて表示装置を有する機器に転送することにより、表示装置の画面が制御画面になるため、どのような制御画面であっても対応できる。   In addition, since the control content is displayed on the screen, various control devices can be handled. This is important in a networked environment, and controls a network device through a device having a display device, in other words, by transferring a control screen of a device connected to the network to a device having a display device through the network. Since this screen becomes the control screen, any control screen can be supported.

そして特に、本実施形態では、操作者画像S1と、操作ボタンを含む操作用画像Gsとを混合した混合画像M1oを表示させ、画面内における操作者の操作ボタンに対する動作を検出して電子機器に対する制御動作を実行する際に、対象物の属性、個数、測定領域内における位置、又は所定の面積に占める面積の割合に応じて、画面上の操作者の大きさや位置、操作ボタンの表示位置や範囲を調整するため、操作(動作)を行う操作者の手や顔などの表示位置に合わせて、適切な位置や範囲に操作ボタンを表示することができ、操作性を向上させることができる。   In particular, in the present embodiment, a mixed image M1o obtained by mixing the operator image S1 and the operation image Gs including the operation button is displayed, and an operation on the operation button of the operator in the screen is detected to detect the operation on the electronic device. When executing the control operation, the size and position of the operator on the screen, the display position of the operation button, etc. according to the attribute, number of objects, the position in the measurement area, or the ratio of the area to the predetermined area Since the range is adjusted, the operation buttons can be displayed at an appropriate position and range in accordance with the display position of the hand or face of the operator who performs the operation (action), and operability can be improved.

また、本実施形態では、操作者画像S1と操作用画像Gsのうちの最前面にあるアクティブ化されているページW1とを、面積及び形状、さらに座標位置をほぼ一致させて混合するため、操作用画像Gsのうちの最前面にあるアクティブ化されているページW1と、その周縁の映像S2との境界における視覚的な段差による違和感を解消することができる。   In the present embodiment, the operator image S1 and the activated page W1 in the forefront of the operation image Gs are mixed so that the area, shape, and coordinate position are substantially matched. It is possible to eliminate a sense of incongruity caused by a visual step at the boundary between the activated page W1 in the foreground image Gs and the peripheral image S2.

さらに、本実施形態では、操作ボタンが、その放送方式や放送局などの属性に従ってグループ分けにされており、ページをめくるように、グループ単位で活性化又は非活性化が切り替えることができるため、ユーザーが所望する操作ボタンへのアクセスが容易となり、操作者は操作可能な操作ボタンを直感的に把握することができる。一方、他のグループについては非活性化(非アクティブ化)するとともに、局のタイトルなどの属性情報については表示されているため、操作者は、現在操作できないまでも他の選択肢としてのグループが存在することを直感的に把握することができる。   Furthermore, in the present embodiment, the operation buttons are grouped according to attributes such as the broadcasting system and broadcasting station, and activation or deactivation can be switched on a group basis so as to turn the page. Access to the operation buttons desired by the user is facilitated, and the operator can intuitively grasp the operation buttons that can be operated. On the other hand, other groups are deactivated (deactivated), and attribute information such as station titles is displayed, so the operator still has groups as other options even if they cannot currently operate It is possible to intuitively grasp what to do.

また、本実施形態では、操作者の操作ボタンに対する動作が検出された際に、次の操作(動作)に関する情報(ガイダンスやヒント)を表示するため、操作者の円滑な操作を誘導することができ、操作性を向上させることができる。   Further, in the present embodiment, when an operation on the operation button of the operator is detected, information (guidance or hint) regarding the next operation (operation) is displayed, so that the smooth operation of the operator can be guided. And operability can be improved.

実施形態に係る電子機器(テレビジョン受像機1)を制御する方法を示す説明図である。It is explanatory drawing which shows the method of controlling the electronic device (television receiver 1) which concerns on embodiment. 実施形態に係るテレビジョン受像機1の画面構成を示す説明図である。It is explanatory drawing which shows the screen structure of the television receiver 1 which concerns on embodiment. 実施形態に係るテレビジョン受像機1の画面構成を分解して示す説明図である。It is explanatory drawing which decomposes | disassembles and shows the screen structure of the television receiver 1 which concerns on embodiment. 実施形態に係るテレビジョン受像機1の構成を示すブロック図である。It is a block diagram which shows the structure of the television receiver 1 which concerns on embodiment. (a)は、実施形態に係る検出器171〜17nの構成を示すブロック図であり、(b)は、オブジェクト抽出器30の構成を示すブロック図である。(A) is a block diagram which shows the structure of the detectors 171-17n which concern on embodiment, (b) is a block diagram which shows the structure of the object extractor 30. FIG. 実施形態に係る認識情報生成部23の構成を示すブロック図である。It is a block diagram which shows the structure of the recognition information generation part 23 which concerns on embodiment. 実施形態に係る制御装置の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the control apparatus which concerns on embodiment. 実施形態に係る操作者画像の調整(拡大・縮小・位置)についての説明図である。It is explanatory drawing about adjustment (enlargement / reduction / position) of the operator image which concerns on embodiment. 実施形態に係る操作用画像の調整についての説明図である。It is explanatory drawing about adjustment of the image for operation which concerns on embodiment. 実施形態に係る操作用画像における操作ボタンのグルーピングについての説明図である。It is explanatory drawing about grouping of the operation button in the image for operation which concerns on embodiment. 実施形態に係る操作用画像におけるガイダンスアイコンの説明図である。It is explanatory drawing of the guidance icon in the image for operation which concerns on embodiment. 実施形態に係るガイダンスアイコンの動作を示す説明図である。It is explanatory drawing which shows operation | movement of the guidance icon which concerns on embodiment.

符号の説明Explanation of symbols

Obj…認識対象物
α1,α2…制御値
Gs…操作用画像
M1o…第1の混合画像
M2o…第2の混合画像
S1…操作者画像
S2…通常の映像信号
W1〜W5…ページ
1…テレビジョン受像機
2…ビデオカメラ
3…ユーザー
11…基準同期発生器
12…タイミングパルス発生器
13…鏡像変換器
14…スケーラ
15…グラフィックス生成器
15a…操作用画像制御部
16…第1の混合器
17…検出部
18…制御情報判断器
19…画素数変換器
20…第2の混合器
21…表示装置
22…音声認識部
23…認識情報生成部
30…オブジェクト抽出器
31…タイミングゲート器
32…オブジェクト特徴データ検出部
33…ヒストグラム検出器
34…平均輝度検出器
35…高域発生量検出器
36…最小値検出器
37…最大値検出器
40,41…操作ボタン
231…認識特徴記憶部
232…認識対象検出部
233…属性判別部
234…位置・サイズ判別部
235…個数判別部
71…特定色フィルタ
72…階調限定器
73…合成器
74…オブジェクトゲート器
75…時間差分フィルタ
171〜17n…検出器
Obj ... recognition object α1, α2 ... control value Gs ... operation image M1o ... first mixed image M2o ... second mixed image S1 ... operator image S2 ... normal video signal W1-W5 ... page 1 ... television Receiver 2 ... Video camera 3 ... User 11 ... Reference synchronization generator 12 ... Timing pulse generator 13 ... Mirror image converter 14 ... Scaler 15 ... Graphics generator 15a ... Operation image controller 16 ... First mixer 17 DESCRIPTION OF SYMBOLS ... Detection part 18 ... Control information judgment device 19 ... Pixel number converter 20 ... 2nd mixer 21 ... Display apparatus 22 ... Speech recognition part 23 ... Recognition information generation part 30 ... Object extractor 31 ... Timing gate device 32 ... Object Feature data detector 33 ... Histogram detector 34 ... Average luminance detector 35 ... High frequency generation amount detector 36 ... Minimum value detector 37 ... Maximum value detection 40, 41 ... operation buttons 231 ... recognition feature storage unit 232 ... recognition target detection unit 233 ... attribute discrimination unit 234 ... position / size discrimination unit 235 ... number discrimination unit 71 ... specific color filter 72 ... gradation limiter 73 ... synthesizer 74 ... Object gate device 75 ... Time difference filter 171-1n ... Detector

Claims (13)

表示装置を有する電子機器の制御装置であって、
操作者を撮影するビデオカメラと、
前記ビデオカメラによって撮影された前記操作者の身体の一部又は操作者が保持する物体である対象物を認識し、この認識された認識対象物の属性、個数、前記表示装置の画面内における位置、又は画面内に占める面積の割合のうちの少なくとも一つを含む認識対象物情報を生成する認識情報生成部と、
前記ビデオカメラによって撮影した画像を、鏡像変換し、前記認識対象物情報に応じて、前記画面上に表示された前記認識対象物の拡大、縮小又は位置の調整を行う鏡像画像調整部と、
少なくとも1つの操作ボタンを含む操作用画像を生成し、前記認識対象物情報に応じて、前記操作ボタンの表示位置又は範囲を調整する操作用画像生成部と、
前記鏡像画像調整部を経た画像と、前記操作用画像とを混合して混合画像を形成し、この混合画像を前記画面上に表示させる画像信号混合部と、
前記画像信号混合部により混合された画像を前記画面上に表示させた状態において、前記ビデオカメラによって撮影され、前記画面に表示された操作者が、前記認識対象物を用いて前記操作ボタンを選択する所定の選択動作を検出する動作検出部と、
前記動作検出部により前記所定選択動作が検出された操作ボタンに対応する制御動作を行う機器制御部と
を備えることを特徴とする電子機器の制御装置。
A control device for an electronic device having a display device,
A video camera to shoot the operator,
Recognizing a part of the operator's body photographed by the video camera or an object that is an object held by the operator, the attributes, the number of recognized recognition objects, and the position on the screen of the display device Or a recognition information generating unit that generates recognition target object information including at least one of the proportion of the area in the screen;
A mirror image adjustment unit that converts an image captured by the video camera into a mirror image, and performs enlargement, reduction, or position adjustment of the recognition object displayed on the screen according to the recognition object information;
An operation image generating unit that generates an operation image including at least one operation button and adjusts a display position or a range of the operation button according to the recognition target object information;
An image signal mixing unit that mixes the image that has passed through the mirror image adjustment unit and the operation image to form a mixed image, and displays the mixed image on the screen;
In a state where the image mixed by the image signal mixing unit is displayed on the screen, the operator picked up by the video camera and displayed on the screen selects the operation button using the recognition object. An operation detection unit for detecting a predetermined selection operation;
A control device for an electronic device, comprising: a device control unit that performs a control operation corresponding to the operation button for which the predetermined selection operation is detected by the operation detection unit.
前記操作用画像生成部は、
前記認識対象物情報に含まれる認識対象物の属性が操作者の手であり、且つ 該認識対象物の個数が一つである場合に、画面上に表示された認識対象物の周囲に前記操作ボタンを集合させて配置させ、
前記認識対象物の属性が操作者の手であり、且つ前記認識対象物の個数が2個以上である場合には、画面上に表示された認識対象物それぞれの周囲に、前記操作ボタンを分散させて配置する
ことを特徴とする請求項1に記載の電子機器の制御装置。
The operation image generation unit includes:
When the recognition object attribute included in the recognition object information is an operator's hand and the number of the recognition object is one, the operation is performed around the recognition object displayed on the screen. Place the buttons together,
When the attribute of the recognition object is an operator's hand and the number of the recognition objects is two or more, the operation buttons are distributed around each of the recognition objects displayed on the screen. The electronic device control device according to claim 1, wherein the electronic device control device is arranged.
前記操作用画像生成部は、
前記認識対象物情報に含まれる認識対象物の属性が操作者の顔である場合に、画面上に表示された該認識対象物の周囲に前記操作ボタンを配置する
ことを特徴とする請求項1に記載の電子機器の制御装置。
The operation image generation unit includes:
2. The operation button is arranged around the recognition object displayed on the screen when the attribute of the recognition object included in the recognition object information is an operator's face. The control apparatus of the electronic device as described in 2.
前記操作用画像生成部は、前記認識対象物情報に含まれる認識対象物の属性及び個数に応じて、前記操作ボタンの表示位置を切り替える
ことを特徴とする請求項1乃至3のいずれかに記載の電子機器の制御装置。
The operation image generating unit switches the display position of the operation button according to the attribute and the number of recognition objects included in the recognition object information. Electronic device control device.
前記操作ボタンは、その属性に従ってグループ分けにされており、
前記操作用画面では、前記操作ボタンがグループ単位で表示されるとともに、操作者の選択操作に応じて、グループ単位で活性化又は非活性化が切り替えられ、
前記活性化されたグループの表示範囲には、前記鏡像画像調整部を経た画像と、前記操作用画像とが混合され、
前記非活性化されたグループについては、少なくともそのグループの属性に関する情報が該グループの表示範囲内に表示される
ことを特徴とする請求項1乃至4のいずれかに記載の電子機器の制御装置。
The operation buttons are grouped according to their attributes,
In the operation screen, the operation buttons are displayed in units of groups, and activation or deactivation is switched in units of groups according to an operator's selection operation,
In the display range of the activated group, an image that has passed through the mirror image adjustment unit and the operation image are mixed,
5. The electronic device control device according to claim 1, wherein at least information related to the attribute of the deactivated group is displayed within a display range of the group. 6.
前記操作用画像生成部は、前記動作検出部による前記選択動作の検出に基づいて、操作に関する情報を図形又は文字により表示するガイダンスアイコンを生成する機能を有することを特徴とする請求項1乃至5のいずれかに記載の電子機器の制御装置。   6. The operation image generating unit has a function of generating a guidance icon that displays information related to an operation with a graphic or a character based on detection of the selection operation by the operation detection unit. The control apparatus of the electronic device in any one of. 操作者を撮影するビデオカメラと、表示装置とを有する電子機器の制御方法であって、
認識情報生成部により、前記ビデオカメラによって撮影された前記操作者の身体の一部又は操作者が保持する物体である対象物を認識し、この認識された認識対象物の属性、個数、前記表示装置の画面内における位置、又は該画面内に占める面積の割合のうちの少なくとも一つを含む認識対象物情報を生成する認識情報生成ステップと、
鏡像画像調整部により、前記ビデオカメラによって撮影した画像を鏡像変換し、前記認識対象物情報に応じて、前記画面上に表示された前記認識対象物の拡大、縮小又は位置の調整を行う鏡像画像調整ステップと、
操作用画像生成部により、少なくとも1つの操作ボタンを含む操作用画像を生成し、前記認識対象物情報に応じて、前記操作ボタンの表示位置又は範囲を調整する操作用画像生成ステップと、
前記鏡像画像調整部を経た画像と、前記操作用画像とを画像信号混合部において混合して混合画像を形成し、この混合画像を前記画面上に表示させる画像信号混合ステップと、
前記画像信号混合部により混合された画像を前記画面上に表示させた状態において、前記ビデオカメラによって撮影され、前記画面に表示された操作者が、前記認識対象物を用いて前記操作ボタンを選択する所定の選択動作を動作検出部により検出する動作検出ステップと、
前記動作検出部により前記所定選択動作が検出された操作ボタンに対応する制御動作を機器制御部により行う機器制御ステップと
を含むことを特徴とする電子機器の制御方法。
A method of controlling an electronic device having a video camera for photographing an operator and a display device,
The recognition information generation unit recognizes a part of the operator's body photographed by the video camera or an object that is an object held by the operator, and the attributes, number, and display of the recognized recognition object A recognition information generating step for generating recognition object information including at least one of a position in the screen of the device or a ratio of the area occupied in the screen;
A mirror image image is obtained by performing mirror image conversion on an image photographed by the video camera by a mirror image adjustment unit, and performing enlargement, reduction, or position adjustment of the recognition object displayed on the screen according to the recognition object information. An adjustment step;
An operation image generation step of generating an operation image including at least one operation button by the operation image generation unit and adjusting a display position or a range of the operation button according to the recognition object information;
An image signal mixing step in which an image that has passed through the mirror image adjustment unit and the operation image are mixed in an image signal mixing unit to form a mixed image, and the mixed image is displayed on the screen;
In a state where the image mixed by the image signal mixing unit is displayed on the screen, the operator picked up by the video camera and displayed on the screen selects the operation button using the recognition object. An operation detection step of detecting a predetermined selection operation by the operation detection unit;
And a device control step of performing, by the device control unit, a control operation corresponding to the operation button for which the predetermined selection operation is detected by the operation detecting unit.
前記画像生成ステップにおいて前記操作用画像生成部は、
前記認識対象物情報に含まれる認識対象物の属性が操作者の手であり、且つ 該認識対象物の個数が一つである場合に、前記画面上に表示された認識対象物の周囲に前記操作ボタンを集合させて配置させ、
前記認識対象物の属性が操作者の手であり、且つ前記認識対象物の個数が2個以上である場合には、画面上に表示された認識対象物それぞれの周囲に、前記操作ボタンを分散させて配置する
ことを特徴とする請求項7に記載の電子機器の制御方法。
In the image generation step, the operation image generation unit includes:
When the attribute of the recognition object included in the recognition object information is an operator's hand and the number of the recognition objects is one, the recognition object displayed on the screen is surrounded around the recognition object. Arrange the operation buttons together,
When the attribute of the recognition object is an operator's hand and the number of the recognition objects is two or more, the operation buttons are distributed around each of the recognition objects displayed on the screen. The method of controlling an electronic device according to claim 7, wherein the electronic device is arranged in a manner.
前記画像生成ステップにおいて前記操作用画像生成部は、
前記認識対象物情報に含まれる認識対象物の属性が操作者の顔である場合に、画面上に表示された該認識対象物の周辺に前記操作ボタンを配置する
ことを特徴とする請求項7に記載の電子機器の制御方法。
In the image generation step, the operation image generation unit includes:
The operation button is arranged around the recognition target displayed on the screen when the attribute of the recognition target included in the recognition target information is an operator's face. The control method of the electronic device of description.
前記画像生成ステップにおいて前記操作用画像生成部は、前記認識対象物情報に含まれる認識対象物の属性及び個数に応じて、前記操作ボタンの表示位置を切り替える
ことを特徴とする請求項7乃至9のいずれかに記載の電子機器の制御方法。
10. The operation image generation unit in the image generation step switches a display position of the operation button according to an attribute and the number of recognition objects included in the recognition object information. The control method of the electronic device in any one of.
操作用画像生成ステップで生成される前記操作ボタンは、その属性に従ってグループ分けにされており、
前記操作用画像生成ステップで生成される前記操作用画面では、前記操作ボタンがグループ単位で表示されるとともに、操作者の選択操作に応じて、グループ単位で活性化又は非活性化が切り替えられ、
画像信号混合ステップにおいて、前記活性化されたグループの表示範囲には、前記鏡像画像調整部を経た画像と、前記操作用画像とが混合されるとともに、前記非活性化されたグループについては、少なくともそのグループの属性に関する情報が該グループの表示範囲内に表示される
ことを特徴とする請求項7乃至10のいずれかに記載の電子機器の制御方法。
The operation buttons generated in the operation image generation step are grouped according to their attributes,
In the operation screen generated in the operation image generation step, the operation buttons are displayed in groups, and activated or deactivated are switched in groups in accordance with an operator's selection operation.
In the image signal mixing step, the display range of the activated group is mixed with the image that has passed through the mirror image adjustment unit and the operation image, and at least about the deactivated group 11. The method for controlling an electronic device according to claim 7, wherein information relating to the attribute of the group is displayed within a display range of the group.
動作検出ステップにおいて、前記操作用画像生成部は、前記動作検出部による前記選択動作の検出に基づいて、操作に関する情報を図形又は文字により表示するガイダンスアイコンを生成する機能を有することを特徴とする請求項7乃至11のいずれかに記載の電子機器の制御方法。   In the operation detection step, the operation image generation unit has a function of generating a guidance icon for displaying information related to an operation with a graphic or a character based on detection of the selection operation by the operation detection unit. The control method of the electronic device in any one of Claims 7 thru | or 11. 操作者を撮影するビデオカメラと、表示装置とを有する電子機器の制御をコンピュータを用いて行わせる制御プログラムであって、前記コンピューターに、
認識情報生成部により、前記ビデオカメラによって撮影された前記操作者の身体の一部又は操作者が保持する物体である対象物を認識し、この認識された認識対象物の属性、個数、前記表示装置の画面内における位置、又は該画面内に占める面積の割合のうちの少なくとも一つを含む認識対象物情報を生成する認識情報生成ステップと、
鏡像画像調整部により、前記ビデオカメラによって撮影した画像を鏡像変換し、前記認識対象物情報に応じて、前記画面上に表示された前記認識対象物の拡大、縮小又は位置の調整を行う鏡像画像調整ステップと、
操作用画像生成部により、少なくとも1つの操作ボタンを含む操作用画像を生成し、前記認識対象物情報に応じて、前記操作ボタンの表示位置又は範囲を調整する操作用画像生成ステップと、
前記鏡像画像調整部を経た画像と、前記操作用画像とを画像信号混合部において混合して混合画像を形成し、この混合画像を前記画面上に表示させる画像信号混合ステップと、
前記画像信号混合部により混合された画像を前記画面上に表示させた状態において、前記ビデオカメラによって撮影され、前記画面に表示された操作者が、前記認識対象物を用いて前記操作ボタンを選択する所定の選択動作を動作検出部により検出する動作検出ステップと、
前記動作検出部により前記所定選択動作が検出された操作ボタンに対応する制御動作を機器制御部により行う機器制御ステップと
を実行させることを特徴とする電子機器の制御プログラム。
A control program that uses a computer to control an electronic device having a video camera that captures an operator and a display device,
The recognition information generation unit recognizes a part of the operator's body photographed by the video camera or an object that is an object held by the operator, and the attributes, number, and display of the recognized recognition object A recognition information generating step for generating recognition object information including at least one of a position in the screen of the device or a ratio of the area occupied in the screen;
A mirror image image is obtained by performing mirror image conversion on an image photographed by the video camera by a mirror image adjustment unit, and performing enlargement, reduction, or position adjustment of the recognition object displayed on the screen according to the recognition object information. An adjustment step;
An operation image generation step of generating an operation image including at least one operation button by the operation image generation unit and adjusting a display position or a range of the operation button according to the recognition object information;
An image signal mixing step in which an image that has passed through the mirror image adjustment unit and the operation image are mixed in an image signal mixing unit to form a mixed image, and the mixed image is displayed on the screen;
In a state where the image mixed by the image signal mixing unit is displayed on the screen, the operator picked up by the video camera and displayed on the screen selects the operation button using the recognition object. An operation detection step of detecting a predetermined selection operation by the operation detection unit;
An electronic device control program that causes a device control unit to execute a control operation corresponding to an operation button for which the predetermined selection operation is detected by the operation detection unit.
JP2007256626A 2007-09-28 2007-09-28 Electronic device control device, control method and control program Pending JP2009087095A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007256626A JP2009087095A (en) 2007-09-28 2007-09-28 Electronic device control device, control method and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007256626A JP2009087095A (en) 2007-09-28 2007-09-28 Electronic device control device, control method and control program

Publications (1)

Publication Number Publication Date
JP2009087095A true JP2009087095A (en) 2009-04-23

Family

ID=40660425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007256626A Pending JP2009087095A (en) 2007-09-28 2007-09-28 Electronic device control device, control method and control program

Country Status (1)

Country Link
JP (1) JP2009087095A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012058884A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor and information processing method
JP2012068854A (en) * 2010-09-22 2012-04-05 Shimane Prefecture Operation input device and operation determination method and program
JP2013016060A (en) * 2011-07-05 2013-01-24 Shimane Prefecture Operation input device, operation determination method, and program
JP2015511343A (en) * 2012-01-20 2015-04-16 トムソン ライセンシングThomson Licensing User recognition method and system
US9329691B2 (en) 2010-09-22 2016-05-03 Shimane Prefectural Government Operation input apparatus and method using distinct determination and control areas
JP2020172751A (en) * 2019-04-08 2020-10-22 中日本高速道路株式会社 Concrete bridge reinforcement structure and reinforcement method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012058884A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor and information processing method
US8842890B2 (en) 2010-09-07 2014-09-23 Sony Corporation Method and device for detecting a gesture from a user and for performing desired processing in accordance with the detected gesture
JP2012068854A (en) * 2010-09-22 2012-04-05 Shimane Prefecture Operation input device and operation determination method and program
US9329691B2 (en) 2010-09-22 2016-05-03 Shimane Prefectural Government Operation input apparatus and method using distinct determination and control areas
JP2013016060A (en) * 2011-07-05 2013-01-24 Shimane Prefecture Operation input device, operation determination method, and program
JP2015511343A (en) * 2012-01-20 2015-04-16 トムソン ライセンシングThomson Licensing User recognition method and system
US9684821B2 (en) 2012-01-20 2017-06-20 Thomson Licensing Method and apparatus for user recognition
JP2020172751A (en) * 2019-04-08 2020-10-22 中日本高速道路株式会社 Concrete bridge reinforcement structure and reinforcement method

Similar Documents

Publication Publication Date Title
JP2009089068A (en) Control device for electronic apparatus, control method and control program
JP4720738B2 (en) Electronics
US10073534B2 (en) Image processing apparatus, image processing method, and program to control a display to display an image generated based on a manipulation target image
US8237655B2 (en) Information processing apparatus, method and program
US9704028B2 (en) Image processing apparatus and program
US9733718B2 (en) Display apparatus and display method thereof
JP4419768B2 (en) Control device for electronic equipment
CN112073788B (en) Video data processing method and device and display equipment
JP2009087095A (en) Electronic device control device, control method and control program
US20210289165A1 (en) Display Device and Video Communication Data Processing Method
JP5414165B2 (en) Image quality adjusting apparatus, image quality adjusting method and program
JP5093607B2 (en) REMOTE DEVICE, REMOTE CONTROL METHOD, PROGRAM, AND DISPLAY CONTROL DEVICE
CN114430492B (en) Display device, mobile terminal and picture synchronous scaling method
KR20110050150A (en) Apparatus for displaying image and method for operating the same
CN112399235B (en) Camera shooting effect enhancement method and display device of intelligent television
JP2008118633A (en) Method and apparatus for controlling electronic appliance
JP2009010849A (en) Control device for electronic apparatus
JP2008282131A (en) Controller for electronic equipment
CN113645502B (en) Method for dynamically adjusting control and display device
US11665327B2 (en) Image processing apparatus
WO2020248886A1 (en) Image processing method and display device
JP2008160240A (en) Image display apparatus
CN115550706A (en) Display device, image processing method and device
JP2010003303A (en) Controller for electronic equipment
JP2009147464A (en) Camera control apparatus, camera control method, image display apparatus, image display system, camera system and program