JP2014026355A - Image display device and image display method - Google Patents

Image display device and image display method Download PDF

Info

Publication number
JP2014026355A
JP2014026355A JP2012164311A JP2012164311A JP2014026355A JP 2014026355 A JP2014026355 A JP 2014026355A JP 2012164311 A JP2012164311 A JP 2012164311A JP 2012164311 A JP2012164311 A JP 2012164311A JP 2014026355 A JP2014026355 A JP 2014026355A
Authority
JP
Japan
Prior art keywords
hand
user
operation area
area
video display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012164311A
Other languages
Japanese (ja)
Other versions
JP5921981B2 (en
Inventor
Stiawan Bondan
スティアワン ボンダン
Takashi Matsubara
孝志 松原
Kazumi Matsumoto
和己 松本
Tatsuya Tokunaga
竜也 徳永
Kazukuni Nakajima
一州 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2012164311A priority Critical patent/JP5921981B2/en
Publication of JP2014026355A publication Critical patent/JP2014026355A/en
Application granted granted Critical
Publication of JP5921981B2 publication Critical patent/JP5921981B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image display device having a function for determining an operation area by recognizing a hand of user that enables the user to perceive a range of the operation area to perform smooth operations.SOLUTION: Operation area means monitors a relative position between a projection position to which a user's hand is projected and an operation area, and when the projection position of the user's hand deviates from the operation area, uses its deviation direction and a relative distance to present an image of the user operation situation indicating the situation of the user's hand deviating from the operation area.

Description

本発明は、ユーザのジェスチャー操作を画像認識して、操作に対する応答を表示させる映像表示装置および映像表示方法に関する。   The present invention relates to an image display apparatus and an image display method for recognizing a user's gesture operation and displaying a response to the operation.

従来、TVやレコーダといった映像装置、あるいは、PCなどの情報処理機器に対して、ユーザは、キーボードやマウスなどのポインティングデバイスを使ってデータ入力や指示入力をしたり、リモコンによりチャンネル操作・表示操作をするのが一般的であった。   Conventionally, for video devices such as TVs and recorders, or information processing devices such as PCs, the user inputs data and instructions using a pointing device such as a keyboard and mouse, or operates and displays channels using a remote control. It was common to do.

ところが、近年では、画像認識技術の向上により、特に、ゲーム機や操作ガイド機器の分野において、ユーザのジェスチャーを画像認識し、ユーザの操作を判断して、機器を動作させる手法が提案されている。   However, in recent years, with the improvement of image recognition technology, a method for operating a device by recognizing a user's gesture, judging a user's operation, particularly in the field of game consoles and operation guide devices has been proposed. .

例えば、特許文献1には、手指の形状、動作を認識して、操作を判定する画像認識装置が開示されている。また、特許文献2には、ユーザの手を認識して、ユーザが操作を行うための操作領域を設定し、ユーザの手の位置が操作領域の周囲に近づいたときには、ユーザの手の位置が動く方向に追随して、操作領域を移動させる映像表示装置、および、その表示制御方法が開示されている。   For example, Patent Document 1 discloses an image recognition device that recognizes the shape and movement of a finger and determines an operation. Further, in Patent Document 2, an operation area for the user to recognize the user's hand is set, and when the position of the user's hand approaches the periphery of the operation area, the position of the user's hand is A video display device that moves an operation area following a moving direction and a display control method thereof are disclosed.

特許第4318056号公報Japanese Patent No. 4318056 特開2011‐81506号公報JP 2011-81506 A

特許文献1および特許文献2では、ユーザの手の周囲に設定された所定の空間(以降、操作領域と記す)内の手の動きのパターンを、ジェスチャーの操作として認識する機能を提供する仕組みが開示されている。   In Patent Document 1 and Patent Document 2, there is a mechanism for providing a function of recognizing a hand movement pattern in a predetermined space (hereinafter referred to as an operation area) set around a user's hand as a gesture operation. It is disclosed.

しかしながら、これらの特許文献で開示される仕組みでは、ユーザが手のジェスチャーで、画面に対して操作をおこなう際に、ユーザが操作する位置と、例えばプロジェクタやテレビで表示される操作対象の画面の位置が、ある程度遠く離れている場合に、ユーザは自分の手の周囲にある前記操作領域と、操作対象の画面との、位置の対応関係を理解するのが難しいという課題がある。   However, in the mechanisms disclosed in these patent documents, when the user performs an operation on the screen with a hand gesture, the position operated by the user and the operation target screen displayed on, for example, a projector or a television are displayed. When the position is far away to some extent, there is a problem that it is difficult for the user to understand the correspondence of the position between the operation area around the user's hand and the operation target screen.

さらに、特許文献1および特許文献2では、前記操作領域における手の位置に対応して、画面上にポインタを表示することが記載されている。しかし、ユーザが操作する際に、ユーザの手が前記操作領域の外側に外れたときに、手が前記操作領域に対してどの方向や、どの程度の距離で離れたかを、ユーザが直感的に把握することができないという課題がある。特にジェスチャーによる操作は、空中での手の動きによる操作であり、触覚等によるユーザへの物理的なフィードバックが存在しない。従って、上記の課題が、ユーザの円滑な操作を妨げる問題として顕著となる。   Further, Patent Document 1 and Patent Document 2 describe that a pointer is displayed on the screen corresponding to the position of the hand in the operation area. However, when the user operates, when the user's hand moves outside the operation area, the user intuitively determines in which direction and how far the hand is away from the operation area. There is a problem that it cannot be grasped. In particular, an operation by gesture is an operation by hand movement in the air, and there is no physical feedback to the user by touch or the like. Therefore, said subject becomes remarkable as a problem which prevents a user's smooth operation.

本発明は、上記課題を解決するためになされたもので、その目的は、ユーザが手のジェスチャーで映像表示装置を操作する際に、ユーザの手が、前記操作領域の外側に外れた場合に、映像表示装置が、手が前記操作領域に対してどの方向や、どの程度の距離で離れたかの状況をユーザが理解できるように提示し、ユーザが直感的に操作の状況を把握しながら円滑に操作できるようにすることにある。   The present invention has been made in order to solve the above-described problem, and the object thereof is when the user's hand is out of the operation area when the user operates the video display device with a hand gesture. The video display device presents the user so that the user can understand the direction and how far the hand is away from the operation area, and the user can smoothly grasp the operation status intuitively. It is to be able to operate.

上記目的を達成するために、例えば特許請求の範囲に記載の構成を採用する。   In order to achieve the above object, for example, the configuration described in the claims is adopted.

本発明によれば、ユーザの手を認識して、手が前記操作領域から外れた際の前記フィードバック表示を提示することによって、ユーザに操作が有効な操作領域の範囲を認知させることが可能となり、円滑な操作が可能となる。   According to the present invention, by recognizing the user's hand and presenting the feedback display when the hand is removed from the operation area, the user can be made aware of the range of the operation area in which the operation is effective. Smooth operation is possible.

本発明の第一の実施形態の映像表示装置の構成図である。It is a block diagram of the video display apparatus of 1st embodiment of this invention. 本発明の第一の実施形態に係る映像表示装置100に対してユーザが操作する概観を説明する図である。It is a figure explaining the external appearance which a user operates with respect to the video display apparatus 100 which concerns on 1st embodiment of this invention. 本発明の第一の実施形態に係る映像表示装置100によるフィードバック表示の提示方法の一例について説明する図である。It is a figure explaining an example of the presentation method of the feedback display by the video display apparatus 100 which concerns on 1st embodiment of this invention. 本発明の第一の実施形態に係る映像表示装置100によるフィードバック表示の提示方法の第二の例について説明する図である。It is a figure explaining the 2nd example of the presentation method of the feedback display by the video display apparatus 100 which concerns on 1st embodiment of this invention. 本発明の第一の実施形態に係る映像表示装置100によるフィードバック表示の提示方法の第三および第四の例について説明する図である。It is a figure explaining the 3rd and 4th example of the presentation method of the feedback display by the video display apparatus 100 which concerns on 1st embodiment of this invention. 本発明の第一の実施形態に係る映像表示装置100によるフィードバック表示の設定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the setting process of the feedback display by the video display apparatus 100 which concerns on 1st embodiment of this invention. 本発明の第一の実施形態に係る映像表示装置100による操作領域が3次元であるときのフィードバック表示の提示方法について説明する図である。It is a figure explaining the presentation method of the feedback display when the operation area | region by the video display apparatus 100 which concerns on 1st embodiment of this invention is three-dimensional. 本発明の第二の実施形態の映像表示装置の構成図である。It is a block diagram of the video display apparatus of 2nd embodiment of this invention. 本発明の第二の実施形態に係る映像表示装置100による操作領域の外側におけるジェスチャー操作の検出方法について説明する図である。It is a figure explaining the detection method of gesture operation in the outer side of the operation area | region by the video display apparatus 100 which concerns on 2nd embodiment of this invention. 本発明の第二の実施形態に係る映像表示装置100による操作領域の外側でジェスチャー操作の検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the detection process of gesture operation on the outer side of the operation area | region by the video display apparatus 100 which concerns on 2nd embodiment of this invention. 本発明の第三の実施形態に係る映像表示装置100による操作領域およびフィードバック表示の提示方法の一例について説明する図である。It is a figure explaining an example of the presentation method of the operation area | region and feedback display by the video display apparatus 100 which concerns on 3rd embodiment of this invention. 本発明の第三の実施形態に係る映像表示装置100による操作領域およびフィードバック表示の設定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the setting process of the operation area | region and feedback display by the video display apparatus 100 which concerns on 3rd embodiment of this invention. 本発明の第三の実施形態に係る映像表示装置100による操作領域およびフィードバック表示の第二の例提示方法について説明する図である。It is a figure explaining the 2nd example presentation method of the operation area | region and feedback display by the video display apparatus 100 which concerns on 3rd embodiment of this invention.

以下、本発明に係る各実施形態を、図1ないし図13を用いて説明する。   Embodiments according to the present invention will be described below with reference to FIGS.

以下、本発明に係る第一の実施形態を、図1ないし図6を用いて説明する。   A first embodiment according to the present invention will be described below with reference to FIGS.

本実施形態の映像表示装置は、ユーザの手が操作を行える操作領域内にある状態から、操作領域から外れた状態に変化したときに、手が操作領域に対してどの方向へ、どの程度の距離で離れたかをユーザに伝えるための前記フィードバック表示を提示する機能を提供するものである。   In the video display device according to the present embodiment, when the user's hand is in the operation area where the operation can be performed and the state is changed from the operation area, the direction in which the hand moves with respect to the operation area is determined. The present invention provides a function of presenting the feedback display for telling the user whether the user is away by a distance.

図1は、本発明の第一の実施形態の映像表示装置の構成図である。   FIG. 1 is a configuration diagram of a video display device according to a first embodiment of the present invention.

本実施形態の映像表示装置100は、例えばテレビやプロジェクタなどであり、図1に示されるように、入力部110、システム制御部120、映像信号処理部130、表示部140からなる。   The video display apparatus 100 according to the present embodiment is a television or a projector, for example, and includes an input unit 110, a system control unit 120, a video signal processing unit 130, and a display unit 140, as shown in FIG.

入力部110は、ユーザの手の位置情報が含まれるデータを取得する装置であり、例えば、TOF(Time of flight)センサ機能を有する赤外線カメラ、ステレオカメラ、RGBカメラなどである。入力部110に用いるカメラは、特に、限定されず、ユーザに対して画像認識し、手の位置を検出するために最終的に、得た画像をセンシングデータに変換するための撮像画像を得る機能を有すればよい。また入力部110は、カメラではなく、ユーザが手で持って操作をおこなう空中マウスや空中コントローラなどの、ユーザの手の位置が検出できるセンシングデータを取得するポインティングデバイスなどでもよい。   The input unit 110 is a device that acquires data including position information of a user's hand, and is, for example, an infrared camera, a stereo camera, or an RGB camera having a TOF (Time of flight) sensor function. The camera used for the input unit 110 is not particularly limited, and a function of recognizing an image for the user and finally obtaining a captured image for converting the obtained image into sensing data in order to detect the position of the hand. If you have. In addition, the input unit 110 may be a pointing device that acquires sensing data that can detect the position of the user's hand, such as an aerial mouse or an aerial controller that the user performs with a hand instead of a camera.

システム制御部120は、ユーザの手の位置を検出し、適切な位置に操作領域を設定するためのデータ処理をおこなう部分である。システム制御部120は、CPUが、メモリ上に記憶されているソフトウェアモジュールを実行することにより実現してもよいし、専用のハードウェア回路により実現してもよい。   The system control unit 120 is a part that detects the position of the user's hand and performs data processing for setting the operation region at an appropriate position. The system control unit 120 may be realized by the CPU executing a software module stored on the memory, or may be realized by a dedicated hardware circuit.

システム制御部120は、手の位置検出部121、位置判定処理部122、操作領域設定部123、フィードバック表示設定部125の機能を実現する部分を有する。   The system control unit 120 includes parts that realize the functions of the hand position detection unit 121, the position determination processing unit 122, the operation region setting unit 123, and the feedback display setting unit 125.

手の位置検出部121は、入力部110で取得したセンシングデータから手の位置を検出する部分である。位置判定処理部122は、手の位置と操作領域の位置関係を判定する部分である。操作領域設定部123は、操作領域を設定する部分である。フィードバック表示設定部125は、前記フィードバック表示を設定する部分である。   The hand position detection unit 121 is a part that detects the hand position from the sensing data acquired by the input unit 110. The position determination processing unit 122 is a part that determines the positional relationship between the position of the hand and the operation area. The operation area setting unit 123 is a part for setting an operation area. The feedback display setting unit 125 is a part for setting the feedback display.

映像信号処理部130は、システム制御部120から指示とデータを受け取り、表示部140に表示するための映像信号を作成する部分である。   The video signal processing unit 130 is a part that receives instructions and data from the system control unit 120 and creates a video signal to be displayed on the display unit 140.

表示部140は、映像信号に基づき、ユーザに映像信号を表示する部分であり、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、プロジェクタ、などの静止画像や動画像を表示可能な表示装置である。   The display unit 140 is a part that displays a video signal to the user based on the video signal. For example, the display unit 140 can display a still image or a moving image such as an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), or a projector. It is a display device.

次に、図2を用いて本発明の第一の実施形態に係る映像表示装置100による前記フィードバック表示の設定処理について説明する。   Next, the feedback display setting process by the video display apparatus 100 according to the first embodiment of the present invention will be described with reference to FIG.

図2は、本発明の第一の実施形態に係る映像表示装置100をユーザが操作する際の概観について説明する図である。   FIG. 2 is a diagram illustrating an overview when the user operates the video display device 100 according to the first embodiment of the present invention.

本発明の第一の実施形態に係る映像表示装置100の表示部140は、例えばテレビのディスプレイ10や、プロジェクタの投射面17となる。   The display unit 140 of the video display device 100 according to the first embodiment of the present invention is, for example, a television display 10 or a projection surface 17 of a projector.

本発明の第一の実施形態に係る映像表示装置100の操作イメージは、図2(a)に示されるように、ユーザ30が操作対象の画面である表示部140で表示される操作画面18を見ながら仮想的な操作領域20内でジェスチャーにより操作し、当該操作を映像表示装置100が画像認識をし、その認識結果に基づいて操作に対応する表示を行う
本実施形態で、特に、キーポイントとなるのは、手の位置を検出することである。本実施形態の映像表示装置100の入力部110は、例えば赤外線カメラ12であり、赤外線を用いた測距機能を有することにより、画面から手までの距離を測定できるものとする。手32は、出っ張っており、ユーザ30の体の中で、赤外線カメラ12により認識しやすい部分であるといえる。
As shown in FIG. 2A, the operation image of the video display device 100 according to the first embodiment of the present invention is an operation screen 18 displayed on the display unit 140 that is a screen to be operated by the user 30. In this embodiment, the video display device 100 performs an operation by a gesture in the virtual operation area 20 while looking at the image, recognizes an image of the operation, and performs a display corresponding to the operation based on the recognition result. It becomes to detect the position of the hand. The input unit 110 of the video display device 100 according to the present embodiment is, for example, an infrared camera 12 and has a distance measuring function using infrared rays so that the distance from the screen to the hand can be measured. The hand 32 protrudes and can be said to be a part that is easily recognized by the infrared camera 12 in the body of the user 30.

図2(b)に、本実施形態における赤外線カメラ12と、撮像領域面22と、操作領域20と、操作画面18の関係が示されている。   FIG. 2B shows a relationship among the infrared camera 12, the imaging area surface 22, the operation area 20, and the operation screen 18 in the present embodiment.

撮像領域面22は、ユーザの手の位置において、赤外線カメラ12が撮像可能な範囲を表す面である。操作画面18は、ユーザに提示するための動画像のコンテンツ、操作メニューや、前記フィードバック表示などを表示する領域である。本実施形態の映像表示装置100の操作画面18上に、静止画像19と、フィードバック表示設定部125で設定された、操作領域20におけるユーザの手の位置を表すポインタ26が表示される。ここで静止画像19の大きさは、操作画面18の大きさと同じとし、操作画面18に静止画像19の全体が見える。なお、操作画面18上に表示されるものは、静止画像の他に、動画、アニメーション、CG(Computer Graphics)映像などでもよい。また、ポインタ26は、図2(b)では、矢印のアイコンで示されているが、手の形をしたアイコン、丸、四角などの基本図形のアイコン、その他アニメのキャラクタのアイコンなどで示されてもよい。   The imaging area plane 22 is a plane that represents a range that the infrared camera 12 can capture at the position of the user's hand. The operation screen 18 is an area for displaying moving image content to be presented to the user, an operation menu, the feedback display, and the like. On the operation screen 18 of the video display apparatus 100 according to the present embodiment, a still image 19 and a pointer 26 indicating the position of the user's hand in the operation area 20 set by the feedback display setting unit 125 are displayed. Here, the size of the still image 19 is the same as the size of the operation screen 18, and the entire still image 19 can be seen on the operation screen 18. Note that what is displayed on the operation screen 18 may be a moving image, animation, CG (Computer Graphics) video, or the like in addition to a still image. The pointer 26 is indicated by an arrow icon in FIG. 2B, but is indicated by a hand-shaped icon, a basic figure icon such as a circle or a square, or an icon of an anime character. May be.

映像表示装置100が、画像認識をして、ユーザの手32を検出すると、次に、手を認識した位置に応じて、操作画面18に対応する操作領域20を決定する。操作領域20は、ユーザ30に操作をおこなわせるための仮想的な領域であり、ユーザ30が立っている位置の赤外線カメラ12の撮像領域面22の中に作られるものとする。また、操作領域20は、操作画面18を、ユーザの手前の撮像領域面22上に、拡大・縮小したものであり、最初に、操作領域20を決定されたときには、ユーザ30の手32が、中心にくるようにする。そして、操作領域20は、手32の位置から操作画面18までの距離に応じて、手を伸ばした方向の延長線上が画面を指示するような領域として決定され、ちょうど、ハンズフリーのレーザポインタを使うようなイメージで、ユーザ30は、映像表示装置100に対して指示を与えることができる。   When the video display apparatus 100 recognizes the image and detects the user's hand 32, the operation area 20 corresponding to the operation screen 18 is then determined according to the position where the hand is recognized. The operation area 20 is a virtual area for causing the user 30 to perform an operation, and is created in the imaging area surface 22 of the infrared camera 12 at the position where the user 30 stands. The operation area 20 is an enlargement / reduction of the operation screen 18 on the imaging area surface 22 in front of the user. When the operation area 20 is first determined, the hand 32 of the user 30 is Try to be in the center. The operation area 20 is determined as an area in which the extension line in the direction in which the hand is extended indicates the screen according to the distance from the position of the hand 32 to the operation screen 18. The user 30 can give an instruction to the video display device 100 with an image to be used.

なお、図2(b)に示されるように、操作領域20が決定された際に、ユーザ30に映像表示装置100に対する指示が可能であることを示すために、ポインタ26を表示するが、ポインタ26を表示せずに、操作画面18内の映像の明るさを変えることなどにより、操作が無効な状態から操作が可能となったことを提示するようにしてもよい。   As shown in FIG. 2B, when the operation area 20 is determined, a pointer 26 is displayed to indicate to the user 30 that an instruction to the video display device 100 is possible. It is also possible to present that the operation can be performed from an invalid state by changing the brightness of the image on the operation screen 18 without displaying the image 26.

また、図2(c)に示されるように、本発明の映像表示装置では、操作を行わせるための操作領域は、2次元の面ではなく、操作領域20aのような3次元操作領域であってもよい。   In addition, as shown in FIG. 2C, in the video display device of the present invention, the operation area for performing the operation is not a two-dimensional surface but a three-dimensional operation area such as the operation area 20a. May be.

ここで、ユーザは操作領域20または操作領域20a内で、手の回転、手振り、押込みなどの所定のジェスチャー操作を行うことで映像表示装置100に対する指示を与え、操作画面18には、その指示の実行結果や前記フィードバック表示が表示される。 次に、図3ないし図6を用いて本発明の第一の実施形態に係る映像表示装置100による操作領域の設定処理と、前記フィードバック表示の設定方法について説明する。   Here, the user gives an instruction to the video display device 100 by performing a predetermined gesture operation such as hand rotation, hand shaking, and pushing in the operation area 20 or the operation area 20a, and the operation screen 18 displays the instruction. The execution result and the feedback display are displayed. Next, the operation region setting process and the feedback display setting method by the video display device 100 according to the first embodiment of the present invention will be described with reference to FIGS.

図3は、映像表示装置100が認識するユーザの手32の位置と前記フィードバック表示の対応関係を示しており、ユーザの手の位置が操作領域20から外れたときに、操作領域20に対する手の位置や方向、距離に応じて操作画面18に表示する前記フィードバック表示について説明する図である。   FIG. 3 shows the correspondence between the position of the user's hand 32 recognized by the video display device 100 and the feedback display. When the position of the user's hand deviates from the operation area 20, the hand with respect to the operation area 20 is shown. It is a figure explaining the said feedback display displayed on the operation screen 18 according to a position, a direction, and distance.

本実施形態の映像表示装置100では、ユーザが映像表示装置100に対して手32を出し、最初に操作領域20が設定されたときに、図3(a)に示されるようにポインタ26が操作画面18の中央に表示される。図3(b)に示されるように、ユーザが操作領域20の右の方向に手32を動かすと、ポインタ26はそれに応じて操作画面18の右方向に移動して、表示される。   In the video display device 100 of the present embodiment, when the user puts the hand 32 on the video display device 100 and the operation area 20 is first set, the pointer 26 is operated as shown in FIG. It is displayed in the center of the screen 18. As shown in FIG. 3B, when the user moves the hand 32 in the right direction of the operation area 20, the pointer 26 is moved in the right direction of the operation screen 18 accordingly and displayed.

ここで、図3(c)に示されるように、図3(b)の状態から、ユーザが手32を右下方向に動かし、操作領域20の外側に移動させると、映像表示装置100は、静止画像19およびポインタ26を、操作画面18に対して右下方向へずらして表示させる。このとき、ポインタ26は操作画面18の外側にあるため、操作画面18には表示されない。また、静止画像19の左上の枠が見えるようになる。   Here, as shown in FIG. 3C, when the user moves the hand 32 in the lower right direction and moves it outside the operation area 20 from the state of FIG. The still image 19 and the pointer 26 are displayed while being shifted in the lower right direction with respect to the operation screen 18. At this time, since the pointer 26 is outside the operation screen 18, it is not displayed on the operation screen 18. Also, the upper left frame of the still image 19 can be seen.

同様に、図3(d)に示されるように、図3(b)の状態から、ユーザが手32を右上方向に動かし、操作領域20の外側に移動させると、映像表示装置100は、静止画像19およびポインタ26を、操作画面18に対して右上方向へずれて表示する。このとき、ポインタ26は操作画面18の外側にあるため、操作が面18には表示されない。また、静止画像19の左下の枠が見えるようになる。   Similarly, as shown in FIG. 3D, when the user moves the hand 32 in the upper right direction and moves it outside the operation area 20 from the state of FIG. The image 19 and the pointer 26 are displayed while being shifted in the upper right direction with respect to the operation screen 18. At this time, since the pointer 26 is outside the operation screen 18, the operation is not displayed on the surface 18. Also, the lower left frame of the still image 19 can be seen.

図3(c)および(d)では、ユーザの手32が操作領域20から外れたときに、静止画像19の位置は手に追従して動く。すなわち、操作領域20と同じ大きさを持つ仮想面200の位置と操作画面18の位置とが対応している。つまり、ユーザの手32が操作領域20から出たときに、操作画面18に対する静止画像19のずれ方向およびずれる距離は、操作領域20に対する仮想面200のずれ方向および距離に対応する。   3C and 3D, when the user's hand 32 is removed from the operation area 20, the position of the still image 19 moves following the hand. That is, the position of the virtual surface 200 having the same size as the operation area 20 corresponds to the position of the operation screen 18. That is, when the user's hand 32 comes out of the operation area 20, the shift direction and the shift distance of the still image 19 with respect to the operation screen 18 correspond to the shift direction and the distance of the virtual surface 200 with respect to the operation area 20.

ここで、ユーザの手32が操作領域20から外れた際に、ユーザが見た静止画像19のずれる方向が、ユーザの手32の動く方向の逆であってもよい。すなわち、図4に示されるように、ユーザの手32が操作領域20から外れたときに、静止画像19の位置は操作領域20の位置と対応し、操作画面18の位置は仮想面200の位置と対応させてもよい。   Here, when the user's hand 32 deviates from the operation area 20, the direction in which the still image 19 viewed by the user deviates may be opposite to the direction in which the user's hand 32 moves. That is, as shown in FIG. 4, when the user's hand 32 is removed from the operation area 20, the position of the still image 19 corresponds to the position of the operation area 20, and the position of the operation screen 18 is the position of the virtual plane 200. You may make it correspond.

図4(a)に示されるように、図3(b)の状態から、ユーザが手32を右下方向に動かし、操作領域20の外側に移動させると、映像表示装置100は、静止画像19を、操作画面18に対して左上方向へずらして表示させる。このとき、ポインタ26は操作画面18の内側に表示され、静止画像19の右下の枠が見えるようになる。   As shown in FIG. 4A, when the user moves the hand 32 in the lower right direction and moves it outside the operation area 20 from the state of FIG. 3B, the video display device 100 displays the still image 19. Are displayed with a shift in the upper left direction with respect to the operation screen 18. At this time, the pointer 26 is displayed inside the operation screen 18 so that the lower right frame of the still image 19 can be seen.

また同様に、図4(b)に表示されるように、図3(b)の状態から、ユーザが手32を右上方向に動かし、操作領域20の外側に移動させると、映像表示装置100は、静止画像19を、操作画面18に対して左下方向へずらして表示させる。このとき、ポインタ26は操作画面18の内側に表示され、静止画像19の表示がずれて、右上の枠が見えるようになる。   Similarly, as shown in FIG. 4B, when the user moves the hand 32 in the upper right direction and moves it outside the operation area 20 from the state of FIG. The still image 19 is displayed while being shifted in the lower left direction with respect to the operation screen 18. At this time, the pointer 26 is displayed inside the operation screen 18, the display of the still image 19 is shifted, and the upper right frame can be seen.

なお、図3(c)、図3(d)、図4(a)と図4(b)に図示しないが、操作領域20および仮想面200は撮像領域面22の中にある。   Although not shown in FIGS. 3C, 3D, 4A, and 4B, the operation area 20 and the virtual plane 200 are in the imaging area plane 22.

なお、上記ではユーザの手32が操作領域20の外側に外れた際に、ポインタ26を操作画面18内に表示しないことによって、ユーザに操作が無効であることを提示しているが、手32が操作領域20の外側に外れた場合に、例えば操作画面18の全体明るさを低くすることなどで、ユーザに操作が無効であることを提示してもよい。   In the above description, when the user's hand 32 moves outside the operation area 20, the pointer 26 is not displayed in the operation screen 18 to indicate that the operation is invalid to the user. May fall outside the operation area 20, the user may be presented with an invalid operation, for example, by reducing the overall brightness of the operation screen 18.

このように、本実施形態の映像表示装置100は、ユーザの手32が操作領域20の内側から外側に出て、且つユーザの手32が撮像領域22の内側にある場合に、ユーザの手32が操作領域20に対して外れている位置や方向、距離に応じて、操作画面18のフィードバック表示によりユーザに伝える。   As described above, the video display device 100 according to the present embodiment has the user's hand 32 when the user's hand 32 comes out from the inside of the operation area 20 and the user's hand 32 is inside the imaging area 22. Is notified to the user by feedback display on the operation screen 18 in accordance with the position, direction, and distance away from the operation area 20.

次に、図5を用いて、ユーザの手32が操作領域20から外れたときのフィードバック表示の別の例について説明する。   Next, another example of feedback display when the user's hand 32 is removed from the operation area 20 will be described with reference to FIG.

図5(a)および図5(b)には、ユーザの手32が操作領域20から外れたときの、操作画面18における別のフィードバック表示の一例が示される。   FIGS. 5A and 5B show an example of another feedback display on the operation screen 18 when the user's hand 32 is removed from the operation area 20.

図5(a)に示されるように、図3(b)に示された状態から、ユーザが手32を右下方向に動かし、操作領域20の外側に移動させると、ポインタ26が操作画面18の右下の端に消え、操作領域20に対するユーザの手32が外れた方向や距離に応じて、画面の右下の端に点滅するフィードバックアイコン27が表示される。   As shown in FIG. 5A, when the user moves the hand 32 in the lower right direction from the state shown in FIG. 3B and moves it outside the operation area 20, the pointer 26 is moved to the operation screen 18. The feedback icon 27 that blinks at the lower right end of the screen is displayed according to the direction and the distance that the user's hand 32 is removed from the operation area 20.

同様に、図5(b)に示されるように、図3(b)に示された状態から、ユーザが手32を右上方向に動かし、操作領域20の外側に移動させると、操作領域20に対するユーザの手32の外れた方向や距離に応じて、操作画面18の右上の端に点滅するフィードバックアイコン27が表示される。ここで、ユーザの手32が操作領域20からどの程度の距離で離れているかをユーザが理解できるように、フィードバックアイコン27の点滅間隔およびアイコンの大きさを操作領域20から手32の離れた距離に応じて変更する。フィードバックアイコン27の点滅間隔およびアイコンの大きさと、ユーザの手32と操作領域20の距離の対応関係の一例を図5(c)に示す。   Similarly, as shown in FIG. 5B, when the user moves the hand 32 in the upper right direction from the state shown in FIG. 3B and moves it outside the operation area 20, the operation area 20 is displayed. A flashing feedback icon 27 is displayed at the upper right end of the operation screen 18 in accordance with the direction and distance of the user's hand 32 being removed. Here, in order to allow the user to understand how far the user's hand 32 is away from the operation area 20, the blinking interval of the feedback icon 27 and the size of the icon are set to the distance away from the operation area 20. Change according to. FIG. 5C shows an example of the correspondence relationship between the blinking interval of the feedback icon 27 and the size of the icon, and the distance between the user's hand 32 and the operation area 20.

図5(d)および図5(e)にはユーザの手32が操作領域20から外れたときの、操作画面18における別のフィードバック表示の一例が示される。   FIGS. 5D and 5E show another example of feedback display on the operation screen 18 when the user's hand 32 is removed from the operation area 20.

図5(d)に示されるように、図3(b)に示された状態から、ユーザが手32を右下方向に動かし、操作領域20の外側に移動させると、ポインタ26が操作画面18の右下の端に消え、操作領域20に対するユーザの手32の外れた方向や距離に応じて、操作画面18に表示されている静止画像19の右下辺りにあたかも画面の一部が右下方向に引っ張られ、歪んでいるような表示効果28が表示される。   As shown in FIG. 5D, when the user moves the hand 32 in the lower right direction from the state shown in FIG. 3B and moves it outside the operation area 20, the pointer 26 is moved to the operation screen 18. Disappears at the lower right edge of the screen, and according to the direction and distance that the user's hand 32 is disengaged from the operation area 20, a portion of the screen appears as if it is about the lower right of the still image 19 displayed on the operation screen 18. A display effect 28 that is pulled in the direction and distorted is displayed.

同様に、図5(e)に示されるように、図3(b)に示された状態から、ユーザが手32を右上方向に動かし、操作領域20の外側に移動させると、操作画面18に表示されている静止画像19の右上辺りにあたかも画面の一部が右上方向に引っ張られ歪んでいるような表示効果28が表示される。なお、表示効果28の歪みの大きさおよび歪みの方向は、操作領域20に対して手32が外れた方向や距離に対応する。   Similarly, as shown in FIG. 5 (e), when the user moves the hand 32 in the upper right direction from the state shown in FIG. 3 (b) and moves it outside the operation area 20, the operation screen 18 is displayed. A display effect 28 is displayed around the upper right side of the displayed still image 19 as if a part of the screen is pulled and distorted in the upper right direction. Note that the magnitude and direction of distortion of the display effect 28 correspond to the direction and distance in which the hand 32 is removed from the operation area 20.

次に、図6を用いて、映像表示装置100のフィードバック表示の設定処理の手順について説明する。   Next, the procedure of the feedback display setting process of the video display apparatus 100 will be described with reference to FIG.

図6は、本発明の第一の実施形態に係る映像表示装置100によるフィードバック表示の設定処理の手順を示すフローチャートである。   FIG. 6 is a flowchart showing a procedure of feedback display setting processing by the video display apparatus 100 according to the first embodiment of the present invention.

操作画面18上でのフィードバック表示設定処理は、図1に示したシステム制御部120が行う処理である。   The feedback display setting process on the operation screen 18 is a process performed by the system control unit 120 shown in FIG.

まず、システム制御部120は、入力部110からのデータを解析して、ユーザ30の手32の認識処理を行う。   First, the system control unit 120 analyzes data from the input unit 110 and performs recognition processing of the hand 32 of the user 30.

そして、手32を認識したときには(S600)、手32の位置に合わせて操作領域20を設定する(S601)。このとき、操作画面18上にポインタ26が表示される。   When the hand 32 is recognized (S600), the operation area 20 is set according to the position of the hand 32 (S601). At this time, a pointer 26 is displayed on the operation screen 18.

次に、手32の位置の変化を認識し、手32の位置に応じて、操作画面18上のポインタ26の位置を動かす(S602)。   Next, the change in the position of the hand 32 is recognized, and the position of the pointer 26 on the operation screen 18 is moved according to the position of the hand 32 (S602).

さらに、再び、手32が認識できているかを判定し(S603)、手32が認識できないときには、操作領域20を削除する(S606)。このとき、操作画面18上のポインタ26も消去され、処理はS600に戻る。   Further, it is determined again whether the hand 32 can be recognized (S603). When the hand 32 cannot be recognized, the operation area 20 is deleted (S606). At this time, the pointer 26 on the operation screen 18 is also deleted, and the process returns to S600.

手32が認識できており、手32の位置が操作領域20の内側から、操作領域20の外側に出た場合には(S604:Yes)、手32と操作領域20との相対位置を計算し(S607)、手32と操作領域20との相対位置を用いて、フィードバック表示設定部は操作画面18に対して、図3(c)、図3(d)、図4(a)、図4(b)、図5(a)、図5(b)、図5(d)および図5(e)に示したようにポインタ26が操作領域20から外れていることを表現する前記フィードバック表示を設定する(S608)。さらに、操作領域20に対する手32の距離が所定の閾値よりも大きいかを判定する(S609)。操作領域20に対する手32の距離がある閾値よりも大きい場合は(S609:Yes)、手32が操作領域から外れている前記フィードバック表示を終了し(S610)、操作領域20を削除する(S606)。このとき、操作画面18上のポインタ26も消去され、処理はS600に戻る。このとき、例えば操作画面18は、図3(c)、図3(d)、図4(a)、図4(b)、図5(a)、図5(b)、図5(d)および図5(e)に示される前記フィードバック表示を提示する状態から、元の状態(ポインタ26が無い図3(a))にすぐ戻してもよいが、操作領域22から手の外れた位置や方向をユーザにより分かりやすく伝えるために、アニメーションなどで少しずつ表示を変化させて操作画面18の元の状態までに、戻してもよい。   When the hand 32 can be recognized and the position of the hand 32 comes out of the operation area 20 from the inside of the operation area 20 (S604: Yes), the relative position between the hand 32 and the operation area 20 is calculated. (S607) Using the relative position between the hand 32 and the operation area 20, the feedback display setting unit displays the operation screen 18 with respect to FIGS. 3C, 3D, 4A, and 4. As shown in FIGS. 5B, 5A, 5B, 5D, and 5E, the feedback display expressing that the pointer 26 is out of the operation area 20 is displayed. Setting is made (S608). Further, it is determined whether the distance of the hand 32 to the operation area 20 is greater than a predetermined threshold (S609). When the distance of the hand 32 to the operation area 20 is larger than a certain threshold (S609: Yes), the feedback display in which the hand 32 is out of the operation area is terminated (S610), and the operation area 20 is deleted (S606). . At this time, the pointer 26 on the operation screen 18 is also deleted, and the process returns to S600. At this time, for example, the operation screen 18 is displayed as shown in FIGS. 3C, 3D, 4A, 4B, 5A, 5B, and 5D. 5 (e) may be immediately returned to the original state (FIG. 3 (a) without the pointer 26) from the state of presenting the feedback display. In order to convey the direction to the user in an easy-to-understand manner, the display may be changed little by little by animation or the like to return to the original state of the operation screen 18.

一方、操作領域20に対する手32の距離が所定の閾値よりも小さい場合は(S609:No)、処理はS602に戻る。なお、手32が認識できており、手32の位置が操作領域20の内側にあり(S604:No)、ユーザ32が所定の操作で操作終了を指示したときには(S605)、処理を終了し、そうでないときには処理はS602に戻る。   On the other hand, when the distance of the hand 32 to the operation area 20 is smaller than the predetermined threshold (S609: No), the process returns to S602. When the hand 32 can be recognized, the position of the hand 32 is inside the operation area 20 (S604: No), and the user 32 instructs to end the operation by a predetermined operation (S605), the process ends. Otherwise, the process returns to S602.

なお、上述の所定の閾値は、撮像領域の範囲であることが望ましい。すなわち、撮像領域外に手が移動した場合には、処理ができずに終了する。   Note that the above-described predetermined threshold is preferably the range of the imaging region. In other words, if the hand moves outside the imaging area, the process is terminated without being processed.

以上より、本発明の第三の実施形態では、映像表示装置100は、手32が操作領域20の内側から、操作領域20の外側に移動した際に、操作領域20に対する手32の位置や方向、距離を前記フィードバック表示によりユーザに提示する機能を提供するものである。   As described above, in the third embodiment of the present invention, when the hand 32 moves from the inside of the operation area 20 to the outside of the operation area 20, the position and direction of the hand 32 with respect to the operation area 20 are described. The function of presenting the distance to the user by the feedback display is provided.

以上より、ユーザの手が操作領域から外れたことを意味する前記フィードバック表示を行うことにより、ユーザは操作が有効な操作領域に対する自分の手の位置を把握することができ、操作を円滑に行うことができる。   As described above, by performing the feedback display, which means that the user's hand is out of the operation area, the user can grasp the position of his / her hand with respect to the operation area where the operation is effective, and the operation is smoothly performed. be able to.

次に図7を用いて、操作領域が3次元空間である場合について説明する。   Next, a case where the operation area is a three-dimensional space will be described with reference to FIG.

図7(a)に示されるように、ユーザの手32の位置が操作領域20aの内側にある場合には、映像表示装置100の操作画面18上にポインタ26が表示さる。この状態から、図7(b)に示されるように、ユーザが手を奥行方向に動かして、操作領域20aから出たときに、操作画面18上では、あたかも静止画像19が奥行方向に遠のいたように表示される。また、図7(c)に示されるように、ユーザが手32をユーザの手前方向に動かして、操作領域20aから出たときに、操作画面18上では、あたかも静止画像19が手前に近づいたように表示される。このとき、操作が無効(ユーザによる手32の操作は反映されない)であることを表現するために、例えば操作画面18は暗く表示される。   As shown in FIG. 7A, when the position of the user's hand 32 is inside the operation area 20a, the pointer 26 is displayed on the operation screen 18 of the video display device 100. From this state, as shown in FIG. 7B, when the user moves his / her hand in the depth direction and exits the operation area 20a, the still image 19 is as far away in the depth direction on the operation screen 18. Is displayed. Further, as shown in FIG. 7C, when the user moves the hand 32 in the direction toward the user and exits the operation area 20a, the still image 19 approaches the front on the operation screen 18. Is displayed. At this time, in order to express that the operation is invalid (the operation of the hand 32 by the user is not reflected), for example, the operation screen 18 is displayed darkly.

このように、本発明の映像表示装置の映像表示装置100は、ユーザの手が、操作が有効である所定の空間領域から外れた際に、画面上にその状態を示すフィードバック表示を行うため、ユーザは円滑に操作を行うことができる。   As described above, the video display device 100 of the video display device according to the present invention performs feedback display indicating the state on the screen when the user's hand is out of the predetermined space area where the operation is effective. The user can operate smoothly.

以下、本発明に係る第二の実施形態を、図8ないし図10を用いて説明する。   Hereinafter, a second embodiment according to the present invention will be described with reference to FIGS.

第一の実施形態の映像表示装置100の表示制御方法は、手が操作領域内にある状態から、操作領域から外れた状態に変化したときに、ユーザに手が操作領域に対してどの方向にどの程度の距離で離れたかを提示する機能を提供するものであった。本実施形態では第一の実施形態の表示制御方法に加えて、手が操作領域に対して離れている状態を利用してジェスチャー操作を検出する機能を提供するものである。   In the display control method of the video display device 100 according to the first embodiment, when the hand changes from the state in the operation region to the state in which the hand is out of the operation region, in which direction the hand is in the operation region. It provided a function to show how far away. In the present embodiment, in addition to the display control method of the first embodiment, a function of detecting a gesture operation using a state where the hand is separated from the operation area is provided.

図8は、本発明の第二の実施形態の映像表示装置の構成図である。   FIG. 8 is a configuration diagram of a video display apparatus according to the second embodiment of the present invention.

本実施形態の映像表示装置100でも、図8に示されるように、入力部110、システム制御部120、手の位置検出部121、位置判定処理部122、操作領域設定部123、フィードバック表示設定部125、映像信号処理部130、表示部140からなることは、第一の実施形態と同様であるが、システム制御部120にジェスチャー検出部126を有することが異なっている。   Also in the video display device 100 of the present embodiment, as shown in FIG. 8, the input unit 110, the system control unit 120, the hand position detection unit 121, the position determination processing unit 122, the operation area setting unit 123, and the feedback display setting unit. 125, the video signal processing unit 130, and the display unit 140 are the same as in the first embodiment, except that the system control unit 120 includes the gesture detection unit 126.

ジェスチャー検出部126は、カメラ12の撮像範囲内において、ユーザの手32の所定の動きパターンである、いわゆるジェスチャーが行われたか否かを検出する部分である。   The gesture detection unit 126 is a part that detects whether or not a so-called gesture, which is a predetermined movement pattern of the user's hand 32, has been performed within the imaging range of the camera 12.

図9は、本発明の第二の実施形態に係る映像表示装置100による操作領域の外側におけるジェスチャー操作の検出方法について説明する図である。   FIG. 9 is a diagram for explaining a method of detecting a gesture operation outside the operation area by the video display device 100 according to the second embodiment of the present invention.

図5(a)および図5(b)に示されたようにユーザの手32が、操作領域20内にある状態から、操作領域20の外側に出たときに、ユーザの手32が操作領域20に対して離れた位置や方向、距離に応じて、画面の右下の端に点滅するフィードバックアイコン27が表示される。このとき、ジェスチャー検出部126は、ユーザの手32が操作領域20の外側、且つ撮像領域22内側にあるときに、ユーザの手32の動きが、映像表示装置100への指示に当たる所定の動きパターンであるか否かを判定する。ここで、前記所定の動きパターンは例えば図9(a)に示される上下に手振りをする動きや、図9(b)に示される操作領域20の外側を手32が一周回る動きや、ユーザが手を押込む動きや、ユーザが手を回転する動きなどの動きのパターンである。前記所定の動きパターンが検出されたら、映像表示100はそれを指示として解釈し、所定の操作を実行する。本発明の第二の実施形態の映像表示装置100は、ユーザの手32が操作領域20から外れており、且つ前記所定の手の動きパターンが検出された際に、画面18上にポップアップメッセージ29を表示する。映像表示装置100が実行する操作として、ポップアップメッセージ29を表示する他に、例えばプレゼンテーションのページめくり操作、ディスプレイの電源を切る操作などでもよい。   As shown in FIG. 5A and FIG. 5B, when the user's hand 32 comes out of the operation area 20 from the state in the operation area 20, the user's hand 32 moves to the operation area. A flashing feedback icon 27 is displayed at the lower right end of the screen according to the position, direction, and distance away from 20. At this time, when the user's hand 32 is outside the operation area 20 and inside the imaging area 22, the gesture detection unit 126 has a predetermined movement pattern in which the movement of the user's hand 32 corresponds to an instruction to the video display device 100. It is determined whether or not. Here, the predetermined movement pattern is, for example, a movement of shaking hands up and down as shown in FIG. 9A, a movement of the hand 32 going around the outside of the operation area 20 shown in FIG. It is a movement pattern such as a movement of pushing the hand or a movement of the user rotating the hand. When the predetermined movement pattern is detected, the video display 100 interprets it as an instruction and executes a predetermined operation. In the video display device 100 according to the second embodiment of the present invention, the pop-up message 29 is displayed on the screen 18 when the user's hand 32 is out of the operation area 20 and the predetermined hand movement pattern is detected. Is displayed. As an operation executed by the video display device 100, in addition to displaying the pop-up message 29, for example, a page turning operation of a presentation, an operation of turning off the display, or the like may be used.

以上より、手32は操作領域20から外れたことを認識したうえで、あえてその状態である所定の動きパターンを認識することにより、映像表示装置100に対してより多様な操作が可能となる。   As described above, by recognizing that the hand 32 has deviated from the operation area 20 and then recognizing a predetermined movement pattern in that state, various operations can be performed on the video display device 100.

図10は、本発明の第二の実施形態に係る映像表示装置100によるフィードバック表示の設定処理と、操作領域の外側でのジェスチャー操作の検出処理の手順を示すフローチャートである。   FIG. 10 is a flowchart showing a procedure of feedback display setting processing and gesture operation detection processing outside the operation region by the video display apparatus 100 according to the second embodiment of the present invention.

まず、システム制御部120は、入力部110からのデータを解析して、ユーザ30の手32の認識処理を行う。   First, the system control unit 120 analyzes data from the input unit 110 and performs recognition processing of the hand 32 of the user 30.

そして、手32を認識したときには(S800)、手32の位置に合わせて操作領域20を設定する(S801)。このとき、操作画面18上にポインタ26が表示される。   When the hand 32 is recognized (S800), the operation area 20 is set according to the position of the hand 32 (S801). At this time, a pointer 26 is displayed on the operation screen 18.

次に、手32の位置の変化を認識し、手32の位置に応じて、操作画面18上のポインタ26の位置を動かす(S802)。   Next, the change in the position of the hand 32 is recognized, and the position of the pointer 26 on the operation screen 18 is moved according to the position of the hand 32 (S802).

さらに、再び、手32が認識できているかを判定し(S803)、手32が認識できないときには、操作領域20を削除する(S808)。このとき、操作画面18上のポインタ26も消去され、処理はS800に戻る。   Further, it is determined again whether the hand 32 can be recognized (S803). If the hand 32 cannot be recognized, the operation area 20 is deleted (S808). At this time, the pointer 26 on the operation screen 18 is also deleted, and the process returns to S800.

手32が認識できており、手32の位置が操作領域20の内側から、操作領域20の外側に出た場合には(S804:Yes)、手32と操作領域20との相対位置を計算し(S808)、手32と操作領域20との相対位置を用いて、フィードバック表示設定部は操作画面18に対して、ポインタ26が操作領域20から外れていることを表現する前記フィードバック表示を設定する(S808)。さらに、操作領域20に対する手32の距離が所定の閾値よりも大きいかを判定する(S809)。操作領域20に対する手32の距離が所定の閾値よりも大きい場合は(S809:Yes)、手32が操作領域から外れている前記フィードバック表示を終了し(S812)、操作領域20を削除する(S806)。このとき、操作画面18上のポインタ26も消去され、処理はS800に戻る。一方、操作領域20に対する手32の距離が所定の閾値よりも小さい場合は(S809:No)、手振りや手の回転のどの所定の動きパターンがユーザによって行われたかを判定し(S810)、そのときは、例えば図9に示されたように画面上のポップアップメッセージを提示するなどの該所定の動きパターンに対応させた所定の動作を実行する(S811)。そしてS802に戻る。なお、手32が認識できており、手32の位置が操作領域20の内側にあり(S804:No)、ユーザ32が所定の操作で操作終了を指示したときには(S805)、処理を終了し、そうでないときには処理はS803に戻る。   When the hand 32 can be recognized and the position of the hand 32 comes out of the operation area 20 from the inside of the operation area 20 (S804: Yes), the relative position between the hand 32 and the operation area 20 is calculated. (S808) Using the relative position between the hand 32 and the operation area 20, the feedback display setting unit sets the feedback display expressing that the pointer 26 is out of the operation area 20 on the operation screen 18. (S808). Further, it is determined whether the distance of the hand 32 to the operation area 20 is greater than a predetermined threshold (S809). When the distance of the hand 32 to the operation area 20 is larger than the predetermined threshold (S809: Yes), the feedback display that the hand 32 is out of the operation area is terminated (S812), and the operation area 20 is deleted (S806). ). At this time, the pointer 26 on the operation screen 18 is also deleted, and the process returns to S800. On the other hand, when the distance of the hand 32 to the operation area 20 is smaller than a predetermined threshold (S809: No), it is determined which predetermined movement pattern of hand gesture or hand rotation is performed by the user (S810), At this time, for example, a predetermined operation corresponding to the predetermined movement pattern such as presenting a pop-up message on the screen as shown in FIG. 9 is executed (S811). Then, the process returns to S802. When the hand 32 can be recognized, the position of the hand 32 is inside the operation area 20 (S804: No), and the user 32 instructs the end of the operation by a predetermined operation (S805), the process is terminated, Otherwise, the process returns to S803.

このように、本発明の第二の実施形態の表示制御方法によれば、手が操作領域から外れたときに、ユーザにその状況を提示して、さらにその状況を利用して、所定の手の動きパターンを操作として検出し、映像表示装置のより多様な入力操作が可能となる。   As described above, according to the display control method of the second embodiment of the present invention, when a hand is removed from the operation area, the situation is presented to the user, and the situation is further utilized to obtain a predetermined hand. Motion patterns can be detected as operations, and more various input operations of the video display device can be performed.

以下、本発明に係る第三の実施形態を、図11ないし図13を用いて説明する。   A third embodiment according to the present invention will be described below with reference to FIGS.

第一の実施形態の映像表示装置100の表示制御方法は、手が操作領域内にある状態から、操作領域から外れた状態に変化したときに、ユーザに手が操作領域に対してどの方向にどの程度の距離で離れたかを提示する機能を提供するものであった。本実施形態では、第一の実施形態の表示制御方式に加え、2つ目の操作領域を設けて、手が操作領域内にある状態から、第一の操作領域から外れた状態に変化したときに、ユーザに手が操作領域に対してどの方向にどの程度の距離で離れたかを提示し、第二の操作領域から手が外れたときに、手の移動に応じて操作領域を追従させるインタフェースを提供するものである。   In the display control method of the video display device 100 according to the first embodiment, when the hand changes from the state in the operation region to the state in which the hand is out of the operation region, in which direction the hand is in the operation region. It provided a function to show how far away. In this embodiment, in addition to the display control method of the first embodiment, when a second operation area is provided and the hand changes from the state in the operation area to the state outside the first operation area. In addition, the interface is shown to the user in which direction and how far the hand is away from the operation area, and when the hand is removed from the second operation area, the interface follows the operation area according to the movement of the hand. Is to provide.

まず、本発明の第三の映像表示装置100の構成について説明する。   First, the configuration of the third video display device 100 of the present invention will be described.

本発明の第三の映像表示装置100の構成は、図1に示される第一の実施形態の映像表示装置と同様であり、入力部110、システム制御部120、手の位置検出部121、位置判定処理部122、操作領域設定部123、フィードバック表示設定部125、映像信号処理部130、表示部140からなる。本実施形態の映像表示装置100は、ユーザの手32を検出したときに、操作領域設定部123を用いて2つの操作領域を設定する。   The configuration of the third video display device 100 of the present invention is the same as that of the video display device of the first embodiment shown in FIG. 1, and includes an input unit 110, a system control unit 120, a hand position detection unit 121, and a position. It includes a determination processing unit 122, an operation area setting unit 123, a feedback display setting unit 125, a video signal processing unit 130, and a display unit 140. The video display apparatus 100 according to the present embodiment sets two operation areas using the operation area setting unit 123 when the user's hand 32 is detected.

次に、図11を用いて、本発明の第三の実施形態の映像表示装置100の操作領域について説明する。   Next, the operation area of the video display device 100 according to the third embodiment of the present invention will be described with reference to FIG.

図11の第一の操作領域20は、第一実施形態ないし第二の実施形態の操作領域と同様に、赤外線カメラ12の撮像領域面22の中において、ユーザの手32を認識した位置に応じて決定される、ユーザ30の操作が有効となる仮想的な領域であり、操作画面18に対応する領域である。ここで、ユーザの手32が第一の操作領域20内に検出されれば、操作画面18上にポインタ26が表示される。   The first operation area 20 in FIG. 11 corresponds to the position where the user's hand 32 is recognized in the imaging area surface 22 of the infrared camera 12, similarly to the operation areas of the first embodiment to the second embodiment. This is a virtual area in which the operation of the user 30 is determined, and is an area corresponding to the operation screen 18. If the user's hand 32 is detected in the first operation area 20, the pointer 26 is displayed on the operation screen 18.

第二の操作領域1501は、第一の操作領域20と同様に、赤外線カメラ12の撮像領域22の中に作られる仮想的な領域であり、第二の操作領域1501の大きさは、第一の操作領域20より大きく、第二の操作領域1501の位置は、例えば第一の操作領域20と同じ中心位置で設定される。   Similar to the first operation region 20, the second operation region 1501 is a virtual region created in the imaging region 22 of the infrared camera 12, and the size of the second operation region 1501 is the first operation region 1501. The position of the second operation area 1501 is set at the same center position as that of the first operation area 20, for example.

本発明の第三の実施形態の映像表示装置100は、ユーザの手32が最初に認識されたときに、図11(a)に示されるようにユーザの手32の周囲に第一の操作領域20および第二の操作領域1501を設定する。このとき、第一の操作領域20の中心は、ユーザの手32であり、操作画面18の中心にポインタ26が表示される。図11(b)に示されるように、ユーザの手32が第一の操作領域20の外側へ出て、尚且つ、第二の操作領域1501の内側にある場合、映像表示装置100は、ポインタを右下方向に消し、第一の操作領域20に対する手32の位置や方向、距離に応じて、操作画面18に表示されている静止画像19を右下方向にずらして表示させる。このとき、ユーザの手32が第一操作領域20から出たときの操作画面18に対する静止画像19のずれ方向は、第一の操作領域20に対する仮想面200のずれ方向と対応する。また、静止画像19のずれ幅は、第一の操作領域20に対して手32が外れた距離に対応する。   When the user's hand 32 is first recognized, the video display device 100 according to the third embodiment of the present invention has a first operation area around the user's hand 32 as shown in FIG. 20 and the second operation area 1501 are set. At this time, the center of the first operation area 20 is the user's hand 32, and the pointer 26 is displayed at the center of the operation screen 18. As shown in FIG. 11B, when the user's hand 32 goes out of the first operation area 20 and is inside the second operation area 1501, the video display device 100 displays a pointer. Is displayed in the lower right direction, and the still image 19 displayed on the operation screen 18 is shifted and displayed in the lower right direction according to the position, direction, and distance of the hand 32 with respect to the first operation area 20. At this time, the displacement direction of the still image 19 with respect to the operation screen 18 when the user's hand 32 comes out of the first operation region 20 corresponds to the displacement direction of the virtual surface 200 with respect to the first operation region 20. Further, the shift width of the still image 19 corresponds to the distance that the hand 32 is removed from the first operation area 20.

ここで、図11(c)に示されるように、ユーザが手32をさらに右下方向に動かして、第二操作領域1501の右下辺を越えたと認識されたとき、映像表示装置100は、第二の操作領域1501に対する手32の位置や方向、距離に追従して、第一操作領域20および第二の操作領域1501を右下方向に移動させる。   Here, as shown in FIG. 11C, when the user further moves the hand 32 in the lower right direction and is recognized as exceeding the lower right side of the second operation area 1501, the video display device 100 The first operation area 20 and the second operation area 1501 are moved in the lower right direction following the position, direction, and distance of the hand 32 with respect to the second operation area 1501.

ここで、操作画面18に、操作領域が移動可能な領域範囲を表す図形1502と、その移動可能な領域範囲に対する現在の操作領域の位置を表す図形1503が表示される。本実施形態では、図形1502は例えば撮像領域面22と対応し、図形1503は第二の操作領域1501と対応する。図11(c)に示されるように、ユーザの手32が第二の操作領域1501の外側に出たとき、第一の操作領域20と第二の操作領域1501がその手の動きにより移動されるが、それに従って図形1502における図形1503の表示位置が変化する。   Here, a graphic 1502 representing an area range in which the operation area can be moved and a graphic 1503 representing the position of the current operation area with respect to the movable area range are displayed on the operation screen 18. In the present embodiment, the graphic 1502 corresponds to, for example, the imaging area surface 22, and the graphic 1503 corresponds to the second operation area 1501. As shown in FIG. 11C, when the user's hand 32 goes outside the second operation area 1501, the first operation area 20 and the second operation area 1501 are moved by the movement of the hand. However, the display position of the graphic 1503 in the graphic 1502 changes accordingly.

なお、第一の操作領域20は、第二の操作領域1501と常に同時に移動するため、図形1502と図形1503の表示は、第一の操作領域20が移動可能な範囲をも表すこととなる。つまり、図形1502と図形1503による前記フィードバック表示を提示することにより、ユーザは自分の手32の周囲にある操作領域が移動可能な範囲を理解することができる。   Since the first operation area 20 always moves simultaneously with the second operation area 1501, the display of the graphic 1502 and the graphic 1503 also represents the range in which the first operation area 20 can move. That is, by presenting the feedback display using the graphic 1502 and the graphic 1503, the user can understand the range in which the operation area around the hand 32 can move.

このように、第二の操作領域1501を設けることにより、ユーザは、自分の手32が操作領域から外れたことを、前記フィードバック表示で確認ができ、さらにその操作領域を任意の位置に移動させることができる。   By providing the second operation area 1501 in this way, the user can confirm that his / her hand 32 has been removed from the operation area by the feedback display, and further move the operation area to an arbitrary position. be able to.

次に、図12を用いて本発明の第三の実施形態に係る映像表示装置100による操作領域の設定およびフィードバック表示の設定処理の手順について説明する。   Next, a procedure for setting an operation region and a feedback display by the video display device 100 according to the third embodiment of the present invention will be described with reference to FIG.

図12は、本発明の第三の実施形態に係る映像表示装置100による操作領域の設定およびフィードバック表示の設定処理の手順を示すフローチャートである。   FIG. 12 is a flowchart showing a procedure for setting an operation area and a feedback display by the video display apparatus 100 according to the third embodiment of the present invention.

第一の操作領域20および第二操作領域1501の設定処理は、図1に示されたシステム制御部120が行う処理である。   The setting process of the first operation area 20 and the second operation area 1501 is a process performed by the system control unit 120 shown in FIG.

まず、システム制御部120は、入力部110からのデータを解析して、ユーザ30の手32の認識処理を行う。   First, the system control unit 120 analyzes data from the input unit 110 and performs recognition processing of the hand 32 of the user 30.

そして、手32を認識したときには(S700)、手32の位置に合わせて操作領域20を設定する(S701)。このとき、操作画面18上にポインタ26が表示される。   When the hand 32 is recognized (S700), the operation area 20 is set according to the position of the hand 32 (S701). At this time, a pointer 26 is displayed on the operation screen 18.

次に、手32の位置の変化を認識し、手32の位置に応じて、操作画面18上のポインタ26の位置を動かす(S702)。   Next, the change in the position of the hand 32 is recognized, and the position of the pointer 26 on the operation screen 18 is moved according to the position of the hand 32 (S702).

さらに、再び、手32が認識できているかを判定し(S703)、手32が認識できないときには、操作領域20を削除する(S706)。このとき、操作画面18上のポインタ26も消去され、処理はS700に戻る。   Furthermore, it is determined again whether the hand 32 can be recognized (S703). If the hand 32 cannot be recognized, the operation area 20 is deleted (S706). At this time, the pointer 26 on the operation screen 18 is also deleted, and the process returns to S700.

手32が認識できており、手32の位置が第一の操作領域20の内側から、第一の操作領域20の外側に出た場合には(S704:Yes)、手32と第一の操作領域20との相対位置を計算し(S707)、手32と第一の操作領域20との相対位置を用いて、図10(b)に示されたような前記フィードバック表示を設定し(S708)、操作画面18に表示する。さらに、手32が認識できており、手32の位置が第二の操作領域1501の外側に外れたかを判定し(S709)、そのときには、手32の移動に応じて、第二の操作領域1501および第一の操作領域20を移動させる。すなわち、第二の操作領域1501および第一の操作領域20を手32の動きに追従して移動させる(S710)。次に、図11(c)に示されたように第一の操作領域の移動可能な範囲の位置を表現する前記フィードバック表示を更新し(S711)、そして、S702に戻る。手32が認識できており、手32の位置が操作領域20の外側に移動しない場合(S704:No)に、ユーザ32が所定の操作で操作終了を指示したときには(S705)、処理を終了する。   When the hand 32 can be recognized and the position of the hand 32 comes out of the first operation area 20 from the inside of the first operation area 20 (S704: Yes), the hand 32 and the first operation The relative position with respect to the area 20 is calculated (S707), and the feedback display as shown in FIG. 10B is set using the relative position between the hand 32 and the first operation area 20 (S708). And displayed on the operation screen 18. Further, it is determined whether the hand 32 has been recognized and the position of the hand 32 has moved outside the second operation area 1501 (S709). At that time, the second operation area 1501 is determined according to the movement of the hand 32. And the 1st operation area | region 20 is moved. That is, the second operation area 1501 and the first operation area 20 are moved following the movement of the hand 32 (S710). Next, as shown in FIG. 11C, the feedback display representing the position of the movable range of the first operation area is updated (S711), and the process returns to S702. When the hand 32 can be recognized and the position of the hand 32 does not move outside the operation area 20 (S704: No), when the user 32 instructs the end of the operation by a predetermined operation (S705), the process is ended. .

なお、ユーザの手32が第一の操作領域20から外れて、まだ第二の操作領域1501の内側となったときには、2つの操作領域を手の動きと追従して移動させ、そして、ユーザの手32が第二の操作領域1501から外れたときには、第二の操作領域1501に対して手32が外れた方向や距離に応じて、操作画面18上に、手が操作領域から外れていることを示す前記フィードバック表示を設定するようにしてもよい。   When the user's hand 32 is removed from the first operation area 20 and is still inside the second operation area 1501, the two operation areas are moved following the movement of the hand, and the user's hand 32 When the hand 32 is removed from the second operation area 1501, the hand is removed from the operation area on the operation screen 18 according to the direction or distance of the hand 32 being removed from the second operation area 1501. You may make it set the said feedback display which shows.

つまり、本発明の第三の実施形態の映像表示装置100は、ある手の位置を検出するタイミングにおいて、図13(a)に示されるように、手が第一の操作領域20の中にあり、次の手の位置を検出するタイミングにおいて、図13(b)に示されるように、手32が第一の操作領域20の外側に出て、かつ、まだ第二の操作領域1501の内側にあるときには、第一の操作領域20に対する手32の位置や方向、距離に追従して、第一の操作領域20および第二の操作領域1501を移動させる。そして、図13(c)に示されるように、図13(a)に示される状態から、次の手の位置を検出するタイミングで、手32が第二の操作領域1501の外側に出た(つまり、ユーザの手32は図13(b)に示される状態になったときよりも速く移動された)ときは、第二の操作領域1501に対して、手32が外れた方向や距離に応じて、操作画面18上に、手32が操作領域から外れていることを示すフィードバック画面を提示する。この仕組みにより、ユーザは手を動かし、操作領域から小さく外した場合には操作領域を手の動きに追従して移動させることができ、操作領域から大きく外した場合に、操作画面上の前記フィードバック表示により、手が操作領域から外れていることを認識することができる。   That is, the video display device 100 according to the third embodiment of the present invention has a hand in the first operation area 20 as shown in FIG. 13A at the timing of detecting the position of a certain hand. At the timing of detecting the position of the next hand, as shown in FIG. 13B, the hand 32 comes out of the first operation area 20 and is still inside the second operation area 1501. In some cases, the first operation region 20 and the second operation region 1501 are moved following the position, direction, and distance of the hand 32 with respect to the first operation region 20. Then, as shown in FIG. 13C, the hand 32 comes out of the second operation area 1501 at the timing of detecting the position of the next hand from the state shown in FIG. That is, when the user's hand 32 is moved faster than when the user's hand 32 is in the state shown in FIG. 13B), the second operation area 1501 depends on the direction and distance the hand 32 is removed. Then, a feedback screen indicating that the hand 32 is out of the operation area is presented on the operation screen 18. With this mechanism, the user can move his / her hand and move the operation area following the movement of the hand when it is removed from the operation area. By the display, it can be recognized that the hand is out of the operation area.

このように、本発明の映像表示装置の表示制御方法によれば、操作中にユーザの手が設定された仮想の操作領域から外れた際に、画面上でその状況を前記フィードバック表示で分かりやすく伝えられ、さらに一度設定した操作領域が、ユーザが手の動きに応じて動的に変更されるため、キャリブレーションのタイミングを途中で決める必用がなく、操作性を向上させることができる。   As described above, according to the display control method of the video display device of the present invention, when the user's hand is out of the set virtual operation area during the operation, the situation can be easily understood on the screen by the feedback display. In addition, since the operation area once set is dynamically changed according to the movement of the hand by the user, it is not necessary to determine the timing of calibration halfway, and the operability can be improved.

以上、第一の実施形態ないし第三の実施形態で説明してきたように、操作中にユーザの手が設定された仮想の操作領域から外れた際に、画面上でその状況をフィードバック表示で分かりやすく伝えられるため、ユーザが操作を円滑に行える。   As described above in the first embodiment to the third embodiment, when the user's hand is out of the set virtual operation area during the operation, the situation can be understood on the screen by the feedback display. Since it is easily communicated, the user can perform the operation smoothly.

100…映像表示装置、110…入力部、130…映像信号処理部、140…表示部、121…手の位置検出部、122…位置判定処理部、123…操作領域設定部、124…手振り動作検出部、10…ディスプレイ、12…赤外線カメラ、14…LED、16…レンズ、18…操作画面、19…静止画像、20…操作領域、22…撮像領域面、26…ポインタ、30…ユーザ、32…手 DESCRIPTION OF SYMBOLS 100 ... Video display apparatus, 110 ... Input part, 130 ... Video signal processing part, 140 ... Display part, 121 ... Hand position detection part, 122 ... Position determination processing part, 123 ... Operation area setting part, 124 ... Hand-movement operation detection Part, 10 ... display, 12 ... infrared camera, 14 ... LED, 16 ... lens, 18 ... operation screen, 19 ... still image, 20 ... operation area, 22 ... imaging area surface, 26 ... pointer, 30 ... user, 32 ... hand

Claims (8)

ユーザの画像を撮像して、前記画像の画像データに対して画像認識を行い、画像認識の結果に基づいて、前記ユーザの操作の状況を提示する映像表示装置であって、
ユーザに提示する映像を表示する表示部と、
前記画像認識の結果に基づき、撮像領域面上で、前記ユーザの手の位置の周囲に、前記ユーザが操作可能な操作領域を設定し、
撮像領域内の前記ユーザの手の位置を検出し、前記ユーザの手の位置が前記操作領域の範囲外にある場合にその操作状況を前記表示部に表示させる制御部と、
を備えることを特徴とする映像表示装置。
A video display device that captures an image of a user, performs image recognition on the image data of the image, and presents a status of the user's operation based on a result of the image recognition,
A display for displaying video to be presented to the user;
Based on the result of the image recognition, an operation area that can be operated by the user is set around the position of the user's hand on the imaging area surface,
A control unit that detects the position of the user's hand in the imaging region and displays the operation status on the display unit when the position of the user's hand is outside the range of the operation region;
A video display device comprising:
前記制御部は、前記ユーザの手の位置が前記操作領域の範囲外にある場合に、前記操作領域から前記ユーザの手の位置までの距離と方向が分かるように前記表示部に表示させることを特徴とする請求項1に記載の映像表示装置。   When the position of the user's hand is outside the range of the operation area, the control unit causes the display unit to display a distance and direction from the operation area to the position of the user's hand. The video display device according to claim 1, wherein 前記制御部は、前記ユーザの手の位置が前記操作領域の範囲外にある場合であって、前記ユーザの手が所定の動きをした場合には、当該所定の動きを所定の操作として検出し、所定の操作に対する表示を表示部に行わせることを特徴とする請求項1に記載の映像表示装置。   The control unit detects the predetermined movement as a predetermined operation when the position of the user's hand is outside the range of the operation area and the user's hand has made a predetermined movement. The video display device according to claim 1, wherein the display unit performs display for a predetermined operation. 前記制御部は、前記操作領域とは別の第二の操作領域を設定し、前記ユーザの手の位置が前記第二操作領域の範囲外に移動した場合に、前記操作領域及び前記第二の操作領域をユーザの手の位置が移動した方向にその距離だけ移動して各操作領域を再設定するとともに、再設定された第二の操作領域の撮像領域面内の位置を表示部に表示させることを特徴とする請求項1に記載の映像表示装置。   The control unit sets a second operation region different from the operation region, and when the position of the user's hand moves outside the range of the second operation region, the control region and the second operation region The operation area is moved in the direction in which the position of the user's hand moves to reset each operation area, and the position of the reset second operation area in the imaging area plane is displayed on the display unit. The video display device according to claim 1. ユーザの画像を撮像して、前記画像の画像データに対して画像認識を行い、画像認識の結果に基づいて、前記ユーザの操作の状況を提示する映像表示方法であって、
前記画像認識の結果に基づき、撮像領域面上で、前記ユーザの手の位置の周囲に、前記ユーザが操作可能な操作領域を設定し、
撮像領域内の前記ユーザの手の位置を検出し、
前記ユーザの手の位置が前記操作領域の範囲外にある場合にその操作状況を表示する
ことを特徴とする映像表示方法。
A video display method for capturing an image of a user, performing image recognition on image data of the image, and presenting a status of the user's operation based on a result of image recognition,
Based on the result of the image recognition, an operation area that can be operated by the user is set around the position of the user's hand on the imaging area surface,
Detecting the position of the user's hand in the imaging area;
An image display method, comprising: displaying an operation status when the position of the user's hand is outside the range of the operation area.
前記ユーザの手の位置が前記操作領域の範囲外にある場合に、前記操作領域から前記ユーザの手の位置までの距離と方向が分かるように表示する
ことを特徴とする請求項5に記載の映像表示方法。
6. The display according to claim 5, wherein when the position of the user's hand is outside the range of the operation area, the distance and direction from the operation area to the position of the user's hand are displayed. Video display method.
前記ユーザの手の位置が前記操作領域の範囲外にある場合であって、前記ユーザの手が所定の動きをした場合には、当該所定の動きを所定の操作として検出し、
所定の操作に対する表示を行う
ことを特徴とする請求項5に記載の映像表示方法。
When the position of the user's hand is outside the range of the operation area and the user's hand has made a predetermined movement, the predetermined movement is detected as a predetermined operation,
6. The video display method according to claim 5, wherein display is performed for a predetermined operation.
前記操作領域とは別の第二の操作領域を設定し、
前記ユーザの手の位置が前記第二操作領域の範囲外に移動した場合に、前記操作領域及び前記第二の操作領域をユーザの手の位置が移動した方向にその距離だけ移動して各操作領域を再設定し、
再設定された第二の操作領域の撮像領域面内の位置を表示する
ことを特徴とする請求項5に記載の映像表示方法。
Set a second operation area different from the operation area,
When the position of the user's hand moves outside the range of the second operation area, each operation is performed by moving the operation area and the second operation area by the distance in the direction in which the position of the user's hand has moved. Reset the area,
6. The video display method according to claim 5, wherein the position of the reset second operation area in the imaging area plane is displayed.
JP2012164311A 2012-07-25 2012-07-25 Video display device and video display method Active JP5921981B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012164311A JP5921981B2 (en) 2012-07-25 2012-07-25 Video display device and video display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012164311A JP5921981B2 (en) 2012-07-25 2012-07-25 Video display device and video display method

Publications (2)

Publication Number Publication Date
JP2014026355A true JP2014026355A (en) 2014-02-06
JP5921981B2 JP5921981B2 (en) 2016-05-24

Family

ID=50199965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012164311A Active JP5921981B2 (en) 2012-07-25 2012-07-25 Video display device and video display method

Country Status (1)

Country Link
JP (1) JP5921981B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179490A (en) * 2014-03-18 2015-10-08 富士ゼロックス株式会社 System for capturing videos, method therefor and program therefor
JP2015197724A (en) * 2014-03-31 2015-11-09 株式会社メガチップス Gesture detection apparatus, operation method thereof, and control program
JP2016148899A (en) * 2015-02-10 2016-08-18 嘉泰 小笠原 Electronic apparatus
JP2017068468A (en) * 2015-09-29 2017-04-06 キヤノン株式会社 Information processing device, information processing method, and program
JP2018005663A (en) * 2016-07-05 2018-01-11 株式会社リコー Information processing unit, display system, and program
JP6328304B1 (en) * 2017-07-25 2018-05-23 株式会社ネットアプリ I / O system
JP2018163668A (en) * 2018-05-14 2018-10-18 株式会社ユピテル Electronic information system and program thereof
JP2018173987A (en) * 2018-07-04 2018-11-08 株式会社ニコン Detector, electronic apparatus, detection method, and program
WO2021001894A1 (en) * 2019-07-01 2021-01-07 三菱電機株式会社 Display control device and display control method
US10936077B2 (en) 2016-07-05 2021-03-02 Ricoh Company, Ltd. User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010081466A (en) * 2008-09-29 2010-04-08 Hitachi Ltd Operation control device and operation display method
JP2011039844A (en) * 2009-08-12 2011-02-24 Shimane Prefecture Image recognition device, operation decision method and program
JP2011081506A (en) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd Video display device and method of controlling display thereof
JP2011175405A (en) * 2010-02-24 2011-09-08 Panasonic Corp Display device and operable range display method in display device
JP2013257762A (en) * 2012-06-13 2013-12-26 Sony Corp Image processing apparatus, and image processing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010081466A (en) * 2008-09-29 2010-04-08 Hitachi Ltd Operation control device and operation display method
JP2011039844A (en) * 2009-08-12 2011-02-24 Shimane Prefecture Image recognition device, operation decision method and program
JP2011081506A (en) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd Video display device and method of controlling display thereof
JP2011175405A (en) * 2010-02-24 2011-09-08 Panasonic Corp Display device and operable range display method in display device
JP2013257762A (en) * 2012-06-13 2013-12-26 Sony Corp Image processing apparatus, and image processing method and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179490A (en) * 2014-03-18 2015-10-08 富士ゼロックス株式会社 System for capturing videos, method therefor and program therefor
JP2015197724A (en) * 2014-03-31 2015-11-09 株式会社メガチップス Gesture detection apparatus, operation method thereof, and control program
JP2016148899A (en) * 2015-02-10 2016-08-18 嘉泰 小笠原 Electronic apparatus
JP2017068468A (en) * 2015-09-29 2017-04-06 キヤノン株式会社 Information processing device, information processing method, and program
JP2018005663A (en) * 2016-07-05 2018-01-11 株式会社リコー Information processing unit, display system, and program
US10936077B2 (en) 2016-07-05 2021-03-02 Ricoh Company, Ltd. User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation
JP2019028510A (en) * 2017-07-25 2019-02-21 株式会社ネットアプリ Input-output system
JP6328304B1 (en) * 2017-07-25 2018-05-23 株式会社ネットアプリ I / O system
JP2018163668A (en) * 2018-05-14 2018-10-18 株式会社ユピテル Electronic information system and program thereof
JP2018173987A (en) * 2018-07-04 2018-11-08 株式会社ニコン Detector, electronic apparatus, detection method, and program
WO2021001894A1 (en) * 2019-07-01 2021-01-07 三菱電機株式会社 Display control device and display control method
JPWO2021001894A1 (en) * 2019-07-01 2021-11-18 三菱電機株式会社 Display control device and display control method
JP7179180B2 (en) 2019-07-01 2022-11-28 三菱電機株式会社 Display control device and display control method

Also Published As

Publication number Publication date
JP5921981B2 (en) 2016-05-24

Similar Documents

Publication Publication Date Title
JP5921981B2 (en) Video display device and video display method
JP5412227B2 (en) Video display device and display control method thereof
JP5167523B2 (en) Operation input device, operation determination method, and program
JP5802667B2 (en) Gesture input device and gesture input method
JP5921835B2 (en) Input device
US9454837B2 (en) Image processing apparatus, method, and computer-readable storage medium calculating size and position of one of an entire person and a part of a person in an image
US20170293351A1 (en) Head mounted display linked to a touch sensitive input device
US9329691B2 (en) Operation input apparatus and method using distinct determination and control areas
JP5839220B2 (en) Information processing apparatus, information processing method, and program
JP5515067B2 (en) Operation input device, operation determination method, and program
JP5808712B2 (en) Video display device
US9544556B2 (en) Projection control apparatus and projection control method
US10234955B2 (en) Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
US20140022171A1 (en) System and method for controlling an external system using a remote device with a depth sensor
JP6344530B2 (en) Input device, input method, and program
JP2012027515A (en) Input method and input device
JP6270495B2 (en) Information processing apparatus, information processing method, computer program, and storage medium
JP2010205223A (en) System and device for control following gesture for virtual object
US20150009136A1 (en) Operation input device and input operation processing method
JP2014096804A (en) Operation control device and operation display method
WO2014181587A1 (en) Portable terminal device
JP2013109538A (en) Input method and device
KR101394604B1 (en) method for implementing user interface based on motion detection and apparatus thereof
WO2014014461A1 (en) System and method for controlling an external system using a remote device with a depth sensor
US20240053832A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140311

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140319

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160413

R150 Certificate of patent or registration of utility model

Ref document number: 5921981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250